JP2018528631A - ステレオオートフォーカス - Google Patents

ステレオオートフォーカス Download PDF

Info

Publication number
JP2018528631A
JP2018528631A JP2017562268A JP2017562268A JP2018528631A JP 2018528631 A JP2018528631 A JP 2018528631A JP 2017562268 A JP2017562268 A JP 2017562268A JP 2017562268 A JP2017562268 A JP 2017562268A JP 2018528631 A JP2018528631 A JP 2018528631A
Authority
JP
Japan
Prior art keywords
image
component
scene
focus
capturing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017562268A
Other languages
English (en)
Inventor
ジアニン・ウェイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2018528631A publication Critical patent/JP2018528631A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/676Bracketing for image capture at varying focusing conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)
  • Focusing (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

第1の画像撮影コンポーネントは、シーンの第1の画像を撮影してもよく、第2の画像撮影コンポーネントは、シーンの第2の画像を撮影してもよい。第1の画像撮影コンポーネントと第2の画像撮影コンポーネントとの間には特定のベースライン距離が存在してもよく、第1の画像撮影コンポーネントまたは第2の画像撮影コンポーネントの少なくとも1つは焦点距離を有する場合がある。第1の画像内に表されるシーンの一部分と第2の画像内に表されるシーンの一部分との間の相違が決定されてもよい。おそらくは相違、特定のベースライン距離、および焦点距離に基づいて、合焦距離が決定されてもよい。第1の画像撮影コンポーネントおよび第2の画像撮影コンポーネントは、合焦距離に焦点合わせをするように設定されてもよい。

Description

本発明は、ステレオオートフォーカスに関する。
デジタルカメラは、あるシーン内の詳細を正確に表す鮮明な画像を撮影するのに使用可能なフォーカス可能レンズを有する。これらのカメラの一部は、マニュアルフォーカス制御を提供する。しかしながら、ワイヤレスコンピューティングデバイス(例えば、スマートフォンおよびタブレット)内のカメラなど、多くのカメラは、自動フォーカス(オートフォーカスまたはAF)アルゴリズムを使用して、シーンごとに手動でカメラを焦点合わせしなければならないという負担からユーザを解放する。
既存のオートフォーカス技術は、画像を撮影し、撮影された画像の鮮明度を推測し、それに従ってフォーカスを調節し、別の画像を撮影するというように続く。このプロセスは、数回の反復のために繰り返される場合がある。最後の最も鮮明な画像が、保存され、および/またはユーザに対して表示される。結果として、オートフォーカス手順は時間がかかり、その時間の間にシーンが動いた可能性があるか、または現在のシーン条件を前提として鮮明度を推測することが困難な場合がある。
2つ以上の画像撮影コンポーネントを有するスマートフォンなどのステレオカメラは、各画像撮影コンポーネントにつき1つ、複数の画像を同時に撮影することができる。次に、ステレオカメラまたはディスプレイデバイスは、何らかの方式でこれらの画像を組み合わせて、3次元(3D)の立体画像を作成またはシミュレートすることができる。しかし、既存のオートフォーカス技術は、ステレオカメラではうまく機能しない。反復的オートフォーカスに関連する遅延に加えて、それぞれ個々の画像撮影コンポーネントがオートフォーカス手順を独立して実行する場合、個々の画像撮影コンポーネントは、矛盾したフォーカスに陥る場合がある。その結果、立体画像がぼやける場合がある。
本明細書内の実施形態は、カメラの複数の画像撮影コンポーネントを迅速に焦点合わせするために使用することができるステレオオートフォーカス技術を開示する。シングルカメラオートフォーカスの反復的手法を使用するのではなく、本明細書内の技術は、画像撮影コンポーネントの合焦距離を直接推測してもよい。その結果、各画像撮影コンポーネントは、同じ距離で焦点合わせされてもよく、ここではその合焦距離は、すべての画像撮影コンポーネントにわたって適度な鮮明な画像を作成するように選択される。この合焦距離に基づいて、各画像撮影コンポーネントは、画像を撮影してもよく、これらの画像を使用して立体画像を形成してもよい。
したがって、第1の実施形態例において、第1の画像撮影コンポーネントは、シーンの第1の画像を撮影してもよく、第2の画像撮影コンポーネントは、シーンの第2の画像を撮影してもよい。第1の画像撮影コンポーネントと第2の画像撮影コンポーネントとの間には特定のベースライン距離が存在してもよく、第1の画像撮影コンポーネントまたは第2の画像撮影コンポーネントの少なくとも1つは、焦点距離を有する場合がある。第1の画像内に表されるシーンの一部分と第2の画像内に表されるシーンの一部分との間の相違が決定されてもよい。おそらくは相違、特定のベースライン距離、および焦点距離に基づいて、合焦距離は決定されてもよい。第1の画像撮影コンポーネントおよび第2の画像撮影コンポーネントは、合焦距離に焦点合わせをするように設定されてもよい。合焦距離に焦点合わせをされた第1の画像撮影コンポーネントは、シーンの第3の画像を撮影してもよく、合焦距離に焦点合わせされた第2の画像撮影コンポーネントは、シーンの第4の画像を撮影してもよい。第3の画像および第4の画像は、シーンのステレオ画像を形成するために組み合わされてもよい。
第2の実施形態例において、製品は、プログラム命令を格納した非一時的コンピュータ可読媒体を含んでもよく、プログラム命令は、コンピューティングデバイスによる実行時に、第1の実施形態例に従う動作をコンピューティングデバイスに実施させる。
第3の実施形態例において、コンピューティングデバイスは、少なくとも1つのプロセッサ、ならびにデータストレージおよびプログラム命令を含んでもよい。プログラム命令は、データストレージに格納されてもよく、少なくとも1つのプロセッサによる実行時に、第1の実施形態例に従う動作をコンピューティングデバイスに実施させてもよい。
第4の実施形態例において、システムは、第1の実施形態例の動作の各々を実行するための様々な手段を含んでもよい。
これらならびに他の実施形態、態様、利点、および代替形態は、必要に応じて添付の図面を参照して、以下の詳細説明を読むことによって当業者には明らかとなる。さらに、本概要ならびに本明細書内で提供される他の説明および図面は、例によって実施形態を例証することのみが意図され、そのようなものとして、多数の変形が可能であるということを理解されたい。例えば、構造要素およびプロセスステップを、特許請求されるような実施形態の範囲内のまま、再配置すること、組み合わせること、分散させること、削除すること、または別の方法で変更することができる。
実施形態例に従う、デジタルカメラデバイスの前面図および右面図を描写する図である。 実施形態例に従う、デジタルカメラデバイスの背面図を描写する図である。 実施形態例に従う、画像撮影能力を有するコンピューティングデバイスのブロック図を描写する図である。 実施形態例に従う、ステレオ撮像を描写する図である。 実施形態例に従う、画像撮影コンポーネントのレンズ位置を描写する図である。 実施形態例に従う、対象物と2つのカメラとの間の距離を決定することを描写する図である。 実施形態例に従う、合焦距離と焦点値との間のマッピングを描写する図である。 実施形態例に従う、フローチャートである。
例となる方法、デバイス、およびシステムが本明細書内で説明される。「例(example)」および「例となる(exemplary)」という言葉は、「例(example)、実例(instance)、または例証(illustration)として機能すること」を意味するために本明細書内では使用されることを理解されたい。「例」または「例となる」と本明細書内で説明されるいかなる実施形態または特徴も、他の実施形態または特徴よりも好ましいまたは有利であると必ずしも解釈されない。他の実施形態を利用することができ、本明細書内に提示される主題の範囲から逸脱することなく、他の変更を行うことができる。
故に、本明細書内で説明される実施形態例は、制限することを意味しない。本明細書内で全体的に説明され、かつ図面において例証される本開示の態様は、多種多様な異なる構成で配置され、置き換えられ、組み合わされ、分離され、設計される可能性があり、それらのすべてが本明細書内で企図される。
さらに、文脈上別段の解釈が提示されない限り、図面の各々において例証される特徴は、互いに組み合わされて使用されてもよい。故に、例証されるすべての特徴が必ずしも各実施形態に必要とされないということを理解のもと、図面は、概して、1つまたは複数の実施形態全体の構成要素態様と見なされるものとする。
本明細書内の説明では、2つの画像撮影コンポーネントを有する単一の立体カメラデバイス、または互いに協働して動作する2つのカメラデバイスに関与する実施形態が開示される。しかしながら、これらの実施形態は、例の目的のために提示される。本明細書内で説明される技術を、2つ以上(例えば、4つ、8つなど)の画像撮影コンポーネントのアレイを有する立体カメラデバイスに適用してもよい。さらにまた、これらの技術を、1つまたは複数の画像撮影コンポーネントをそれぞれが有する2つ以上の立体または非立体カメラに適用してもよい。さらには、いくつかの実装形態において、本明細書内で説明される画像処理プロセスは、ステレオカメラデバイスによって実施されてもよいが、一方で、他の実装形態においては、画像処理プロセスは、1つまたは複数のカメラデバイスと通信状態にある(および、おそらくはそれを制御している)コンピューティングデバイスによって実施されてもよい。
文脈によっては、「カメラ」は、個々の画像撮影コンポーネント、または1つもしくは複数の画像撮影コンポーネントを含むデバイスを指す場合がある。一般に、画像撮影コンポーネントは、以下に説明されるように、絞り、レンズ、記録面、およびシャッターを備える。
1.画像撮影デバイス例
カメラの人気が高まっているため、カメラは、スタンドアロンハードウェアデバイスとして採用されるか、他の種類のデバイスに統合される場合がある。例えば、スチルおよびビデオカメラは、現在では、通常、ワイヤレスコンピューティングデバイス(例えば、スマートフォンおよびタブレット)、ラップトップコンピュータ、ビデオゲームインターフェース、ホームオートメーションデバイス、さらには自動車および他の種類の車両に含まれている。
カメラの画像撮影コンポーネントは、光が入る1つまたは複数の絞り、光によって表される画像を撮影するための1つまたは複数の記録面、および記録面上の画像の少なくとも一部を焦点合わせするために各絞りの前に位置する1つまたは複数のレンズを含んでもよい。絞りは、固定サイズであってもよく、または調節可能であってもよい。アナログカメラでは、記録面は、写真フィルムであってもよい。デジタルカメラでは、記録面は、撮影した画像をデータストレージユニット(例えば、メモリ)に移送および/または格納するために、電子画像センサ(例えば、電荷結合素子(CCD)または相補型金属酸化物半導体(CMOS)センサ)を含んでもよい。
1つまたは複数のシャッターは、近くのレンズまたは記録面に連結されてもよい。各シャッターは、光が記録面に達するのを妨害する閉位置にあるか、または光が記録面に達することが許される開位置にある場合がある。各シャッターの位置は、シャッターボタンによって制御されてもよい。例えば、シャッターは、デフォルトでは閉位置にあってもよい。シャッターボタンがトリガされる(例えば、押される)と、シャッターサイクルとして知られる期間にわたって、シャッターは閉位置から開位置に変化してもよい。シャッターサイクルの間に、画像は記録面上に撮影されてもよい。シャッターサイクルの最後に、シャッターは閉位置に変化して戻ってもよい。
代替的に、シャッタープロセスは電子的であってもよい。例えば、CCD画像センサの電子シャッターが「開く」前に、センサは、センサのフォトダイオード内のいかなる残留信号も取り除くためにリセットされてもよい。電子シャッターが開いたまま、フォトダイオードは電荷を蓄積してもよい。シャッターが閉まるとき、または閉まった後、これらの電荷は、長期データストレージに移送されてもよい。機械的および電子的シャッターの組み合わせも可能な場合がある。
種類に関係なく、シャッターは、シャッターボタン以外の何かによって起動および/または制御されてもよい。例えば、シャッターは、ソフトキー、タイマー、または何らかの他のトリガによって起動されてもよい。本明細書内では、「画像撮影」という用語は、シャッタープロセスがどのようにしてトリガまたは制御されるかに関係なく、結果として1つまたは複数の画像が記録されることになる任意の機械的および/または電子的シャッタープロセスを指す場合がある。
撮影された画像の露出は、絞りのサイズ、絞りに入ってくる光の輝度、およびシャッターサイクルの長さ(シャッター時間または露出時間とも呼ばれる)の組み合わせによって決定されてもよい。加えて、デジタルおよび/またはアナログゲインが画像に適用されてもよく、それにより露出に影響を与える。
スチルカメラは、画像撮影がトリガされるたびに1つまたは複数の画像を撮影する場合がある。ビデオカメラは、画像撮影がトリガされたままである限り(例えば、シャッターボタンが押されている間)は、特定の速度(例えば、1秒あたり24画像、またはフレーム)で画像を継続して撮影する場合がある。一部のデジタルスチルカメラは、カメラデバイスまたはアプリケーションが起動されたときにシャッターを開く場合があり、シャッターは、カメラデバイスまたはアプリケーションが停止されるまでこの位置に留まってもよい。シャッターが開いたままの状態で、カメラデバイスまたはアプリケーションは、シーンの表現を撮影し、ビューファインダー上に表示してもよい。画像撮影がトリガされるとき、現在のシーンの1つまたは複数の異なるデジタル画像が撮影されてもよい。
2つ以上の画像撮影コンポーネントを有するカメラは、立体カメラと呼ばれる場合がある。立体カメラは、同時に、またはほぼ同時に、各画像撮影コンポーネントにつき1つ、2つ以上の画像を撮影することができる。これらの画像は、シーン内の対象物の深さを表す3D立体画像を形成するために使用されてもよい。
カメラは、絞りサイズ、露出時間、ゲインなどの1つまたは複数のカメラ機能および/または設定を制御するためにソフトウェアを含む場合がある。加えて、一部のカメラは、画像が撮影されている最中、または撮影された後に、これらの画像をデジタル処理するソフトウェアを含む場合がある。
前述したように、デジタルカメラは、スタンドアロンデバイスであるか、他のデバイスと統合される場合がある。例として、図1Aは、前面図101Aおよび側面図101Bから分かるようにデジタルカメラデバイス100のフォームファクタを例証する。デジタルカメラデバイス100は、例えば、携帯電話、タブレットコンピュータ、またはウェアラブルコンピューティングデバイスであってもよい。しかしながら、他の実施形態が可能である。
デジタルカメラデバイス100は、本体102、正面カメラ104、多素子ディスプレイ106、シャッターボタン108、および他のボタン110などの様々な要素を含んでもよい。正面カメラ104は、動作中に典型的にはユーザの方を向いている本体102の側、つまり多素子ディスプレイ106と同じ側に位置してもよい。
図1Bに描写されるように、デジタルカメラデバイス100は、背面カメラ112Aおよび112Bをさらに含む可能性がある。これらのカメラは、正面カメラ104と反対の本体102の側に位置してもよい。背面図101Cおよび101Dは、背面カメラ112Aおよび112Bの2つの代替の配置を示す。どちらの配置においても、カメラは、平面に、かつx軸またはy軸のいずれかの上の同じ地点に位置する。それにもかかわらず、他の配置が可能である。また、カメラを正面または背面と呼ぶのは任意であり、デジタルカメラデバイス100は、本体102の様々な側面に位置する複数のカメラを含んでもよい。
多素子ディスプレイ106は、ブラウン管(CRT)ディスプレイ、発光ダイオード(LED)ディスプレイ、液晶(LCD)ディスプレイ、プラズマディスプレイ、または当該技術分野で知られている任意の他の種類のディスプレイを表す可能性がある。いくつかの実施形態において、多素子ディスプレイ106は、正面カメラ104ならびに/もしくは背面カメラ112Aおよび112Bによって撮影されている現在の画像、またはこれらのカメラのうちの任意の1つまたは複数のカメラによって撮影された可能性のある、もしくは最近撮影された画像のデジタル表現を表示してもよい。したがって、多素子ディスプレイ106は、カメラのビューファインダーとして機能を果たす場合がある。多素子ディスプレイ106はまた、任意の態様のデジタルカメラデバイス100の設定および/または構成を調節することが可能な場合があるタッチスクリーンおよび/または存在感知機能をサポートしてもよい。
正面カメラ104は、画像センサ、およびレンズなどの関連する光学素子を含んでもよい。正面カメラ104は、ズーム能力を提供してもよく、または固定された焦点距離を有する可能性がある。他の実施形態において、交換可能なレンズが正面カメラ104と共に使用される可能性がある。正面カメラ104は、可変の機械的絞りならびに機械的および/または電子的シャッターを有してもよい。正面カメラ104はまた、静止画像、ビデオ画像、または両方を撮影するように構成される可能性がある。さらに、正面カメラ104は、例えば、平面視のカメラを表す可能性がある。
背面カメラ112Aおよび112Bは、ステレオペアとして配置されてもよい。これらのカメラの各々は、絞り、レンズ、記録面、およびシャッターを含む、独立して制御可能な異なる画像撮影コンポーネントであってもよい。デジタルカメラデバイス100は、背面カメラ112Aおよび112Bに、あるシーンのそれぞれの平面視画像を同時に撮影するように命令してもよく、次いで、深さのあるステレオ画像を形成するためにこれらの平面視画像の組み合わせを使用してもよい。
正面カメラ104ならびに背面カメラ112Aおよび112Bのいずれかまたは両方は、ターゲットオブジェクトを照明するために光照射野を提供する照明コンポーネントを含むか、またはそれと関連付けられる場合がある。例えば、照明コンポーネントは、ターゲットオブジェクトにフラッシュまたは連続照明を提供する可能性がある。照明コンポーネントはまた、構造化光、偏光、および特定のスペクトルコンテンツを有する光のうちの1つまたは複数を含む光照射野を提供するように構成される可能性がある。対象物から3Dモデルを復元することで知られており、そのために使用される他の種類の光照射野が、本明細書内の実施形態の文脈内で可能である。
正面カメラ104、ならびに/または背面カメラ112Aおよび112Bのうちの1つまたは複数は、カメラが撮影することができるシーンの環境輝度を、連続して、または時々、決定し得る環境光センサを含むか、またはそれと関連付けられる場合がある。いくつかのデバイスにおいて、環境光センサは、カメラと関連付けられたスクリーン(例えば、ビューファインダー)のディスプレイ輝度を調節するために使用することができる。決定された環境輝度が高い場合、スクリーンの輝度レベルは、スクリーンを見やすくするために増大されてもよい。決定された環境輝度が低い場合、スクリーンの輝度レベルは、スクリーンを見やすくするため、ならびにおそらくは省電力化のために減少されてもよい。環境光センサはまた、画像撮影のための露出時間を決定するために使用されてもよい。
デジタルカメラデバイス100は、多素子ディスプレイ106ならびに正面カメラ104または背面カメラ112Aおよび112Bのいずれかを使用して、ターゲットオブジェクトの画像を撮影するように構成されることが可能である。撮影された画像は、複数の静止画像またはビデオストリームである可能性がある。画像撮影は、シャッターボタン108を起動すること、多素子ディスプレイ106上のソフトキーを押すこと、または何らかの他の機構によってトリガされる可能性がある。実装形態によっては、画像は、特定の時間間隔、例えば、シャッターボタン108の押下時、ターゲットオブジェクトの適切な照明条件時、デジタルカメラデバイス100を所定の距離だけ移動させたとき、または所定の撮影スケジュールに従って、自動的に撮影される可能性がある。
上述したように、デジタルカメラデバイス100、または別の種類のデジタルカメラの機能は、ワイヤレスコンピューティングデバイス、携帯電話、タブレットコンピュータ、ラップトップコンピュータなどのコンピューティングデバイスに統合されてもよい。例の目的のため、図2は、カメラコンポーネント224を含んでもよい例となるコンピューティングデバイス200のコンポーネントの一部を示す簡略化したブロック図である。
例として、および制限することなく、コンピューティングデバイス200は、セル式電話(例えば、スマートフォン)、スチルカメラ、ビデオカメラ、ファックス機、コンピュータ(デスクトップ、ノートブック、タブレット、またはハンドヘルドコンピュータなど)、パーソナルデジタルアシスタント(PDA)、ホームオートメーションコンポーネント、デジタルビデオレコーダ(DVR)、デジタルテレビ、リモートコントロール、ウェアラブルコンピューティングデバイス、または少なくとも何らかの画像撮影および/または画像処理能力を備えた何らかの他の種類のデバイスであってもよい。コンピューティングデバイス200は、デジタルカメラなどの物理的なカメラデバイス、カメラアプリケーションがソフトウェア内で動作させる特定の物理ハードウェアプラットフォーム、またはカメラ機能を実行するように構成されるハードウェアおよびソフトウェアの他の組み合わせを表す場合があることを理解されたい。
図2に示されるように、コンピューティングデバイス200は、通信インターフェース202、ユーザインターフェース204、プロセッサ206、データストレージ208、およびカメラコンポーネント224を含んでもよく、それらのすべてが、システムバス、ネットワーク、または他の接続機構210によって通信可能に連結されてもよい。
通信インターフェース202は、コンピューティングデバイス200が、アナログまたはデジタル変調を用いて、他のデバイス、アクセスネットワーク、および/またはトランスポートネットワークと通信することを可能にしてもよい。したがって、通信インターフェース202は、単純従来型電話サービス(POTS)通信および/またはインターネットプロトコル(IP)もしくは他のパケット化通信など、回線交換および/またはパケット交換通信を容易にする場合がある。例えば、通信インターフェース202は、無線アクセスネットワークまたはアクセスポイントを用いたワイヤレス通信のために配置されるチップセットおよびアンテナを含んでもよい。また、通信インターフェース202は、イーサネット(登録商標)、ユニバーサルシリアルバス(USB)、または高精細マルチメディアインターフェース(HDMI(登録商標))ポートなどの有線インターフェースの形態をとるか、またはそれを含んでもよい。通信インターフェース202はまた、Wifi、Bluetooth(登録商標)、全地球測位システム(GPS)、または広域ワイヤレスインターフェース(例えば、WiMAXまたは3GPPロングタームエボリューション(LTE))などのワイヤレスインターフェースの形態をとるか、またはそれを含んでもよい。しかしながら、他の形態の物理層インターフェースおよび他の種類の標準または独自の通信プロトコルが、通信インターフェース202にわたって使用されてもよい。さらに、通信インターフェース202は、複数の物理通信インターフェース(例えば、Wifiインターフェース、Bluetooth(登録商標)インターフェース、および広域ワイヤレスインターフェース)を含んでもよい。
ユーザインターフェース204は、コンピューティングデバイス200が人間または非人間のユーザと相互作用すること、例えば、ユーザからの入力を受信することおよび出力をユーザに提供することを可能にするように機能してもよい。したがって、ユーザインターフェース204は、キーパッド、キーボード、タッチセンサ式または存在感知式パネル、コンピュータマウス、トラックボール、ジョイスティック、マイクなどの入力コンポーネントを含んでもよい。ユーザインターフェース204はまた、例えば、存在感知式パネルと組み合わされてもよいディスプレイスクリーンなどの1つまたは複数の出力コンポーネントを含んでもよい。ディスプレイスクリーンは、CRT、LCD、および/もしくはLED技術、または現在知られているか、もしくは後に開発される他の技術に基づいてもよい。ユーザインターフェース204はまた、スピーカ、スピーカジャック、音声出力ポート、音声出力デバイス、イヤホン、および/または他の同様のデバイスを介して、可聴出力を生成するように構成されてもよい。
いくつかの実施形態において、ユーザインターフェース204は、コンピューティングデバイス200によってサポートされるスチルカメラおよび/またはビデオカメラ機能のためのビューファインダーとして機能するディスプレイを含んでもよい。加えて、ユーザインターフェース204は、カメラ機能の構成および焦点合わせならびに画像の撮影(例えば、写真を撮影すること)を容易にする1つまたは複数のボタン、スイッチ、ノブ、および/またはダイヤルを含んでもよい。これらのボタン、スイッチ、ノブ、および/またはダイヤルの一部またはすべてが、存在感知式パネルとして実装される可能性があり得る。
プロセッサ206は、1つまたは複数の汎用プロセッサ、例えば、マイクロプロセッサ、および/または1つもしくは複数の専用プロセッサ、例えば、デジタル信号プロセッサ(DSP)、グラフィック処理ユニット(GPU)、浮動小数点ユニット(FPU)、ネットワークプロセッサ、もしくは特定用途向け集積回路(ASIC)を含んでもよい。いくつかの場合において、専用プロセッサは、いくつかある可能性の中でも、画像処理、画像アラインメント、および画像マージを行うことができる場合がある。データストレージ208は、磁気、光学、フラッシュ、または有機ストレージなどの1つまたは複数の揮発性および/または不揮発性ストレージコンポーネントを含んでもよく、プロセッサ206と全体または一部が統合されてもよい。データストレージ208は、取り外し可能および/または取り外し不可能なコンポーネントを含んでもよい。
プロセッサ206は、本明細書内に記載される様々な機能を実行するために、データストレージ208に格納されたプログラム命令218(例えば、コンパイル済みまたはコンパイルされていないプログラム論理および/または機械コード)を実行することができる場合がある。したがって、データストレージ208は、プログラム命令を格納した非一時的コンピュータ可読媒体を含んでもよく、プログラム命令が、コンピューティングデバイス200による実行時に、本明細書および/または添付の図面において開示される方法、プロセス、または動作のいずれかをコンピューティングデバイス200に実行させる。プロセッサ206によるプログラム命令218の実行は、プロセッサ206がデータ212を使用することにつながる場合がある。
例として、プログラム命令218は、オペレーティングシステム222(例えば、オペレーティングシステムカーネル、デバイスドライバ、および/または他のモジュール)、およびコンピューティングデバイス200にインストールされた1つまたは複数のアプリケーションプログラム220(例えば、カメラ機能、アドレスブック、Eメール、ウェブブラウジング、ソーシャルネットワーキング、および/またはゲーミングアプリケーションズ)を含んでもよい。同様に、データ212は、オペレーティングシステムデータ216およびアプリケーションデータ214を含んでもよい。オペレーティングシステムデータ216は、主としてオペレーティングシステム222がアクセスできるものであってよく、アプリケーションデータ214は、主としてアプリケーションプログラム220のうちの1つまたは複数がアクセスできるものであってよい。アプリケーションデータ214は、コンピューティングデバイス200のユーザに見えるファイルシステムまたは見えないファイルシステム内に配置されてもよい。
アプリケーションプログラム220は、1つまたは複数のアプリケーションプログラミングインターフェース(API)を通じてオペレーティングシステム222と通信してもよい。これらのAPIは、例えば、アプリケーションプログラム220が、アプリケーションデータ214を読み出すおよび/または書き込む、通信インターフェース202を介して情報を伝送または受信する、ユーザインターフェース204上に情報を受信および/または表示するなどを行うのを容易にしてもよい。
一部の日常口語では、アプリケーションプログラム220は、略して「アプリ(app)」と呼ばれる場合がある。加えて、アプリケーションプログラム220は、1つまたは複数のオンラインアプリケーションストアまたはアプリケーションマーケットを通じて、コンピューティングデバイス200にダウンロード可能であってもよい。しかしながら、アプリケーションプログラムはまた、ウェブブラウザを介して、またはコンピューティングデバイス200上の物理インターフェース(例えば、USBポート)を通じてなど、他の方法でコンピューティングデバイス200にインストールすることができる。
カメラコンポーネント224は、絞り、シャッター、記録面(例えば、写真フィルムおよび/または画像センサ)、レンズ、および/またはシャッターボタンを含んでもよいが、これらに限定されない。カメラコンポーネント224は、プロセッサ206により実行されるソフトウェアによって少なくとも部分的に制御されてもよい。
2.ステレオ撮像およびオートフォーカス例
図3は、ステレオ撮像の実施形態例を描写する。この図では、左カメラ302および右カメラ304が、シーン300の画像を撮影している。シーン300は、前景に人および背景に雲を含む。左カメラ302および右カメラ304は、ベースライン距離によって分離される。
左カメラ302および右カメラ304の各々が、それぞれの絞り、レンズ、シャッター、および記録面などの画像撮影コンポーネントを含んでもよい。図3では、左カメラ302および右カメラ304は、異なる物理カメラとして描写されるが、左カメラ302および右カメラ304は、例えば、同じ物理デジタルカメラの画像撮影コンポーネントの別個のセットである可能性がある。
いずれにせよ、左カメラ302および右カメラ304は、同時に左画像306および右画像308をそれぞれ撮影してもよい。本明細書では、そのような同時画像撮影は、同時に、または互いに数ミリ秒(例えば、1、5、10、または25)以内に発生する場合がある。左カメラ302および右カメラ304のそれぞれの位置に起因して、シーン300の前景にいる人は、左画像306ではわずかに右に、右画像308ではわずかに左に現れる。
左画像306および右画像308は、互いと整列され、次いでシーン300のステレオ画像表現を形成するために組み合わされて使用されてもよい。画像アラインメントは、左画像306および右画像308が「マッチする」ようにそれらを互いに整列させるための計算法に関与する場合がある。画像アラインメントの1つの技術は、固定されたx軸およびy軸オフセットが一方の画像の各ピクセルに適用され、その結果、この画像が他方の画像と実質的に整列されるというグローバルアラインメントである。この文脈における実質的なアラインメントは、ピクセル間の誤差要因が最小限にされるか、またはしきい値より下になるように決定されるアラインメントであってもよい。例えば、最小二乗誤差は、いくつかの候補アラインメントに対して計算されてもよく、最も低い最小二乗誤差を有するアラインメントが実質的なアラインメントであると決定されてもよい。
しかしながら、より良い結果は、通常、一方の画像がいくつかのm×nピクセルブロックに分割され、各ブロックがそれぞれ個々のオフセットに従って別個に整列される場合に達成することができる。いくつかのブロックが他とは異なってオフセットされるという結果になる可能性がある。ブロックの各候補アラインメントについて、平行移動された元画像および標的画像内の全ピクセル間の正味の差が決定され合計されてもよい。この正味誤差が格納され、最小誤差を有する平行移動が実質的なアラインメントとして選択されてもよい。
本明細書内で説明されるものに加えて、またはそれらの代わりに、他の画像アラインメント技術が使用されてもよい。
加えて、様々な技術を使用して、左画像306および右画像308からステレオ画像表現310を作成してもよい。ステレオ画像表現310は、3Dグラスの補助ありまたはなしで見ることができる場合がある。例えば、左画像306および右画像308は、スクリーン上で互いに重ね合わされてもよく、ユーザは、ユーザの両目がそれぞれ適切な絵を見るように重ね合わされた画像をフィルタする3Dグラスを装着してもよい。代替的に、スクリーンが、素早く(例えば、約100ミリ秒ごとに)左画像306と右画像308とを切り替えてもよい。これにより、ユーザが3Dグラスを装着することを必要とすることなく3D効果を作り出してもよい。
図4は、対象物の画像を撮影する画像撮影コンポーネントの単純化した表現を描写する。画像撮影コンポーネントは、レンズ402および記録面404を含む。対象物400を表す光はレンズ402を通過し、対象物400の画像を記録面404上に作成する(レンズ402の光学に起因して、記録面404上の画像は上下逆に表れる)。レンズ402は、それが図4に関しては左または右に動くことができるという点で、調節可能であってもよい。例えば、調節は、レンズ402の位置を制御するモータ(図4では示されない)に電圧を印加することによって行われてもよい。モータは、レンズ402を記録面404から離すように、または近づけるようにさらに動かしてもよい。したがって、画像撮影コンポーネントは、ある範囲の距離で対象物に対して焦点合わせをすることができる。任意の時点におけるレンズ402と記録面404との間の距離は、レンズ位置として知られるものであり、通常はミリメートルで測定される。レンズ402とそのフォーカスエリアとの間の距離は、合焦距離として知られるものであり、ミリメートルまたは他の単位で測定される場合がある。
焦点距離はレンズの固有特性であり、レンズがズームレンズでない場合は固定されている。レンズ位置は、レンズ表面と記録面との間の距離を指す。レンズ位置は、対象物が鮮明に見える(焦点が合っている)ように調節することができる。いくつかの実施形態において、レンズ位置は、焦点距離により近似され、レンズが無限遠で焦点合わせするように駆動される場合は、レンズ位置は焦点距離に等しい。したがって、焦点距離は、非ズーム画像撮影コンポーネントの場合は既知であり固定されている一方、レンズ位置は、未知であるが、画像撮影コンポーネントを対象物に焦点合わせするために推測することができる。
オートフォーカスは、ユーザからのわずかな支援または支援なしで画像撮影コンポーネントを焦点合わせするために使用される手法である。オートフォーカスは、焦点合わせすべきシーンの領域を自動的に選択してもよく、またはシーンの事前に選択された領域に焦点合わせしてもよい。オートフォーカスソフトウェアは、画像撮影コンポーネントが対象物に対して十分に焦点が合っていると決定するまで、画像撮影コンポーネントのレンズ位置を自動的に調節してもよい。
オートフォーカス手法例は、以下に説明される。しかしながら、本例は、オートフォーカスを達成する1つの方法にすぎず、他の技術が使用されてもよい。
コントラストに基づいたオートフォーカスでは、記録面上の画像はデジタルで分析される。特に、ピクセル間の輝度のコントラスト(例えば、最も明るいピクセルと最も暗いピクセルとの輝度の違い)が決定される。一般に、このコントラストが高いほど、より画像の焦点が合っている。コントラストを決定した後、レンズ位置が調節され、コントラストが再び測定される。このプロセスは、コントラストが少なくとも何らかの予め定められた値になるまで繰り返す。この予め定められた値が達成されると、このシーンの画像が撮影され格納される。
この種類のオートフォーカスには2つの異なる欠点がある。第一に、オートフォーカスアルゴリズムは、いくらかの時間(例えば、数10ミリ秒または数100ミリ秒以上)反復する場合があり、望ましくない遅延を引き起こす。この反復プロセスの間、シーン内の対象物が動く場合がある。これにより、オートフォーカスアルゴリズムがさらに長い間にわたって反復し続けるという結果になる場合がある。第二に、コントラストに基づいたオートフォーカス(ならびに他のオートフォーカス技術)は、微光のシーンまたは光の点々を有するシーンを評価する際には不正確になる可能性がある。例えば、暗い部屋の中で光の点いたクリスマスツリーの画像を撮影しようとするとき、光と残りの部屋との間のコントラストが、オートフォーカスアルゴリズムを惑わして、ほぼどんなレンズ位置でも容認できる焦点をもたらすと思わせる場合がある。これは、焦点のぼやけた点光源のエッジが、コントラストに基づいたオートフォーカスアルゴリズムによって焦点が合っていると見なされるのに十分に鮮明であるということに起因する。
さらには、複数の画像撮影コンポーネントを有するステレオカメラまたは任意のカメラデバイスにおいて、各画像撮影コンポーネント上でオートフォーカスを独立して動作させることが、望ましくない結果を引き起こす場合がある。おそらくは画像撮影コンポーネントがシーン内の対象物に対してわずかに異なる位置にあること、ならびに画像撮影コンポーネント間での可能性のあるハードウェアの違いに起因して、各画像撮影コンポーネントが、異なる距離で焦点合わせをすることになる場合がある。また、1つの画像撮影コンポーネントがレンズ位置を決定するために使用されるとしても、可能性のあるハードウェアの違いが理由で、この同じレンズ位置を他の画像撮影コンポーネントが信頼性をもって使用することはできない。
3.非反復ステレオオートフォーカス例
本明細書内の実施形態は、オートフォーカス技術を改善する。特に、画像撮影コンポーネントと対象物との間の距離を正確に推測する非反復オートフォーカス技術が開示される。そして、そのような距離を電圧にマッピングするコンポーネント特有のテーブルを使用して、各画像撮影コンポーネントが画像撮影のために同じ合焦距離で焦点合わせをするように、適切な電圧を各レンズのモータに印加することができる。
本明細書内の実施形態は、複数カメラまたは単一カメラの形態のいずれかにある、複数の画像撮影コンポーネントの存在を前提とする。加えて、簡潔性の目的のため、本明細書内の実施形態は、2つの画像撮影コンポーネントのためのステレオオートフォーカスについて説明するが、これらの技術は、3つ以上の画像撮影コンポーネントのアレイにも同様に適用されてもよい。
画像撮影コンポーネントから対象物までの距離を推測するために、2つの画像撮影コンポーネントおよびシーン内の対象物の場所に基づいた三角測量法を使用することができる。図5に戻ると、左カメラ302および右カメラ304は、x軸上で互いから離れたbの距離にあると仮定される。これらのカメラのうちの1つまたは両方が、fの焦点距離を有する(例証の目的のため、図5では位置および大きさは強調されている)。両方のカメラはまた、z軸上のカメラから距離zにある対象物に向けられる。bおよびfの値は既知であるが、zの値は推測されることになる。
それを行う1つの方法は、左カメラ302および右カメラ304の両方で対象物の画像を撮影することである。図3の文脈に記されるように、対象物は、左カメラ302によって撮影される画像ではわずかに右に、右カメラ304によって撮影される画像ではわずかに左に現れる。撮影された画像内に対象物が現れるときの対象物との間のこのx軸距離が、相違dである。
第1の三角形MNOは、左カメラ302、右カメラ304、および対象物の間に描くことができる。また、第2の三角形PQOは、ポイントP(対象物が左カメラ302によって撮影された画像内に現れる場所)から、ポイントQ(対象物が右カメラ304によって撮影された画像内に現れる場所)、ポイントOへと描くことができる。相違dはまた、ポイントPとポイントQとの間の距離として表すことができる。
形式上、三角形MNOおよび三角形PQOは、対応する角度のすべてが同じ測定値を有するという点で同様の三角形である。結果として、これらの三角形はまた、同じ幅と高さの比を有する。したがって、以下のとおりである。
この様式では、カメラから対象物までの距離zは、直接推測することができる。分からないままになっているのは、相違dだけである。しかし、この値は、左カメラ302および右カメラ304によって撮影された対象物の画像に基づいて推測することができる。
そのために、これらの画像の各々に現れる特徴点が特定されてもよい。この特徴点は、対象物(例えば、図5では人)であってもよく、または異なる特徴点であってもよい。相違は、特徴点が2つの画像の各々に現れたときの特徴点間のピクセルのオフセットに基づいて推測することができる。
アラインメントアルゴリズムを使用してこの相違を見つけることができる。例えば、2つの画像のうちの一方から特徴点の少なくとも部分を含むm×nピクセルブロックを、他方の画像内の同様のサイズのピクセルのブロックにマッチさせることができる。言い換えると、このアルゴリズムは、左画像内の対応するブロックに最もマッチする右画像内のブロック、またはその逆を探すことができる。5×5、7×7、9×9、11×11、3×5、5×7など、様々なブロックサイズが使用されてもよい。
この調査は、エピポーラ線に沿って行われてもよい。いくつかの場合において、多重解像度手法を使用して調査を実行してもよい。上述されるように、最小二乗誤差を有するアラインメントが発見される場合がある。代替的に、誤差の測定値がしきい値を下回る任意のアラインメントが代わりに使用されてもよい。
アラインメントが発見されると、相違は、2つの画像内の特徴点の対応するピクセル間のオフセットにおけるピクセルの数である。2つのカメラがx軸上で整列されている場合において、このアラインメントプロセスは、x軸に沿ってのみ調査することによって単純化することができる。同様に、2つのカメラがy軸上で整列されている場合、このアラインメントプロセスは、y軸に沿ってのみ調査することによって単純化することができる。
代替または追加の実施形態において、2つの画像のうちの一方におけるコーナー(または同様のエッジ特徴)が、他方の画像における同じコーナーにマッチされてもよい。Harris and Stephens技術などのコーナー検出アルゴリズム、またはFAST(Features from Accelerated Segment Test)技術である。次いで、対応するコーナー間の変換を、例えば、外れ値検出のために正規化8点アルゴリズムおよびランダムサンプルコンセンサス(RANSAC)を使用して、アフィン変換または平面ホモグラフィとして計算することができる。次いでこの変換の平行移動要素を抽出することができ、その大きさが相違である。この技術は、画像アラインメントなしでも相違の精度の高い推測を提供し得るが、画像を整列させるよりも計算コストも高い場合がある。また、カメラは、通常、最初は正しく焦点合わせがされていないため、コーナー検出技術は、はっきりとしたコーナーを持たない結果として生じるぼやけた画像に対してはうまく機能しない可能性がある。その結果、画像の少なくともいくつかの領域をダウンサンプリングして、ダウンサンプリングされた領域に対してコーナー検出を実施することが望ましい場合がある。
距離zが分かると、2つ(またはそれ以上)のカメラの各々を、その距離に焦点合わせすることができる。しかしながら、異なる画像撮影コンポーネントは、異なる設定を有してもよく、それを用いて特定の距離で焦点合わせをする。したがって、両方のカメラに出される同じ命令が、2つのカメラが異なる距離で焦点合わせをするという結果をもたらしてもよい。
この問題を解決するために、画像撮影コンポーネントハードウェアの各セットの焦点精度は、較正を通じて所与の範囲内の焦点値にマッピングされてもよい。例を目的として、0〜100の範囲が本明細書内では使用される。したがって、焦点値は、製造公差に従う、記録面からいくらかの距離内にレンズ位置を特定する単位のない整数値である。特定の画像撮影コンポーネントに対するこれらの値は、電圧に、または画像撮影コンポーネントがそのレンズをレンズ位置まで動かすようにさせて、結果として画像撮影コンポーネントがその距離で焦点合わせをするという他の機構に、さらにマッピングされてもよい。
図6は、合焦距離と0〜100の焦点値との間のマッピング例を提供する。カラム600は合焦距離を表し、カラム602は左カメラの焦点値を表し、カラム604は右カメラの焦点値を表す。マッピング内の各入力値は、これらのカメラが所与の合焦距離で焦点合わせをするように、各カメラに対して設定することができる焦点値を示す。例えば、両方のカメラを909ミリメートルの距離で焦点合わせするためには、左カメラの焦点値は44に設定され、右カメラの焦点値は36に設定される可能性がある。
上記のように、カメラ(例えば、画像撮影コンポーネントのセット)の焦点値は、ハードウェア特有のレンズ位置を表す。したがって、各焦点値は、例えば、レンズに印加されると、所望の合焦距離が達成されるようにレンズを調節する特定の電圧と関連付けられてもよい。いくつかの場合において、電圧は、位置ではなく、レンズに適用する特定の力を特定する。閉ループ画像撮影コンポーネントは、それらのモジュールから、レンズがどこにあるか、およびそれが集束されているのか、または依然として動いているのかに関して、ステータスアップデートを提供することができることによって、この機能を支援する場合がある。他の場合において、焦点値は、例えば、エンコーダによって決定されるようなレンズの特定の場所を指定する。
合焦距離と、レンズ位置と、電圧との間の関連性を決定するために、画像撮影コンポーネントの各セットは較正される場合がある。例えば、対象物は、画像撮影コンポーネントの各々のレンズ位置ではっきりと焦点が合うまで動かされてもよく、画像撮影コンポーネントからその対象物までの距離は、各レンズ位置から測定することができる。即ち、言い換えると、対象物は、画像撮影コンポーネントから距離Dに置かれ、次いで、対象物の画像が十分にはっきりとするまで焦点値が調節される。焦点値Vは記録され、次いで距離Dと焦点値Vとのマッピングが発見される。DとVとのマッピングのテーブルを得るために、対象物は、ジオプトリ(距離の逆数)で等間隔の異なる位置に置かれる可能性がある。
このデータから、レンズ位置に、0〜100範囲の焦点値を割り当てることができる。任意のそのような較正は、オフラインで発生してもよく(例えば、カメラの製造中、またはステレオオートフォーカスソフトウェアの構成中)、合焦距離と焦点値とのマッピング、ならびに焦点値とレンズ位置とのマッピングは、データファイル内に提供されてもよい。
4.動作例
図7は、実施形態例を例証するフローチャートである。図7によって例証される実施形態は、デジタルカメラデバイス100などのコンピューティングデバイスによって実行されてもよい。しかしながら、本実施形態は、他の種類のデバイスまたはデバイスサブシステムによって実行される可能性がある。さらに、本実施形態は、本明細書または添付の図面に開示される任意の態様または特徴と組み合わされてもよい。
図7のブロック700は、第1の画像撮影コンポーネントによってシーンの第1の画像を撮影することに関与してもよい。ブロック702は、第2の画像撮影コンポーネントによってシーンの第2の画像を撮影することに関与してもよい。第1の画像撮影コンポーネントおよび第2の画像撮影コンポーネントの各々が、それぞれの絞り、レンズ、および記録面を備えてもよい。
さらに、第1の画像撮影コンポーネントと第2の画像撮影コンポーネントとの間には特定のベースライン距離が存在してもよい。また、第1の画像撮影コンポーネントまたは第2の画像撮影コンポーネントの少なくとも1つは、焦点距離を有する場合がある。いくつかの実施形態において、第1の画像撮影コンポーネントおよび第2の画像撮影コンポーネントは、ステレオカメラデバイスの部分であってもよい。他の実施形態において、第1の画像撮影コンポーネントおよび第2の画像撮影コンポーネントは、ソフトウェアおよびそれらの間の通信を用いて協働される別個で異なるカメラデバイスの部分であってもよい。第1の画像撮影コンポーネントおよび第2の画像撮影コンポーネントは、同じまたは異なる画像撮影解像度を有することが可能である。
ブロック704は、第1の画像内に表されるシーンの一部分と第2の画像内に表されるシーンの一部分との間の相違を決定することに関与してもよい。
ブロック706は、おそらくは相違、特定のベースライン距離、および焦点距離に基づいて、合焦距離を決定することに関与してもよい。合焦距離は、特定のベースラインおよび焦点距離の積を相違で割った値に基づいてもよい。
ブロック708は、合焦距離に焦点合わせするように第1の画像撮影コンポーネントおよび第2の画像撮影コンポーネントを設定することに関与してもよい。焦点を設定することは、第1の画像撮影コンポーネントおよび第2の画像撮影コンポーネントにそれぞれの命令を送って、これらのコンポーネントが合焦距離に焦点合わせをするようにそれらのレンズ位置を調節することに関与してもよい。
図示されていないが、図7の実施形態は、合焦距離に焦点合わせされた第1の画像撮影コンポーネントによってシーンの第3の画像を撮影すること、および合焦距離に焦点合わせされた第2の画像撮影コンポーネントによってシーンの第4の画像を撮影することにさらに関与してもよい。第3の画像および第4の画像は、シーンのステレオ画像を形成および/または表示するために組み合わされてもよい。そのような表示されたステレオ画像は、見るために3Dグラスを必要とする場合とそうでない場合がある。
いくつかの実施形態において、第1の画像内に表されるシーンの一部分と第2の画像内に表されるシーンの一部分との間の相違を決定することは、第1の画像内の第1のm×nピクセルブロックを特定すること、および第2の画像内の第2のm×nピクセルブロックを特定することに関与する。第1のm×nピクセルブロックまたは第2のm×nピクセルブロックは、第1のm×nピクセルブロックおよび第2のm×nピクセルブロックが実質的に整列されるまで移動されてもよい。相違は、移動によって表されるピクセル距離に基づく。いくつかの場合において、第1のm×nピクセルブロックまたは第2のm×nピクセルブロックを移動させることは、第1のm×nピクセルブロックまたは第2のm×nピクセルブロックをx軸上でのみ移動させることに関与してもよい。
本明細書内で説明される実質的なアラインメントは、ブロック間の誤差要因が最小限にされるか、またはしきい値より下になるように決定されるアラインメントであってもよい。例えば、最小二乗誤差は、いくつかの候補アラインメントに対して計算されてもよく、最も低い最小二乗誤差を有するアラインメントが実質的なアラインメントであると決定されてもよい。
いくつかの実施形態において、シーンの一部分は、コーナーを有する特徴点を含んでもよい。これらの場合において、第1の画像内に表されるシーンの一部分と第2の画像内に表されるシーンの一部分との間の相違を決定することは、第1の画像および第2の画像内のコーナーを検出し、第1の画像および第2の画像内のコーナーが実質的にマッチするように、第1の画像または第2の画像を平行移動に従って他方にワーピングすることに関与してもよい。相違は、平行移動によって表されるピクセル距離に基づいてもよい。
いくつかの実施形態において、焦点値は、特定の範囲の整数値から選択される整数である。特定の範囲内の整数値は、電圧とそれぞれ関連付けられてもよい。これらの電圧は、第1の画像撮影コンポーネントおよび第2の画像撮影コンポーネントに印加されると、第1の画像撮影コンポーネントおよび第2の画像撮影コンポーネントにほぼシーンの一部分で焦点合わせをさせる場合がある。合焦距離に焦点合わせをするように第1の画像撮影コンポーネントおよび第2の画像撮影コンポーネントを設定することは、合焦距離と関連付けられた電圧を第1の画像撮影コンポーネントおよび第2の画像撮影コンポーネントの各々に印加することに関与してもよい。
いくつかの実施形態において、第1の画像および第2の画像が撮影される前に、特定の範囲内の整数値と電圧との間のそれぞれの関連性が、第1の画像撮影コンポーネントおよび第2の画像撮影コンポーネントの特性に基づいて較正されてもよい。
5.結論
本開示は、様々な態様の例証であることが意図される本出願に説明される特定の実施形態の観点から限定されるべきではない。当業者には明らかであるように、その範囲から逸脱することなく多くの修正および変形を行うことができる。本明細書内に列挙されるものに加えて、本開示の範囲内にある機能的に等価の方法および装置は、先述の説明により当業者には明らかである。そのような修正および変形は、添付の請求項の範囲内に入ることが意図される。
上の詳細な説明は、添付の図面を参照して、開示されるシステム、デバイス、および方法の様々な特徴および機能を説明するものである。本明細書および図面において説明される実施形態例は、限定することを意図しない。他の実施形態を利用することができ、本明細書内に提示される主題の範囲から逸脱することなく、他の変更を行うことができる。本明細書内で全体的に説明され、かつ図面において例証される本開示の態様が、多種多様な異なる構成で配置され、置き換えられ、組み合わされ、分離され、設計される可能性があり、それらのすべてが本明細書内で明確に企図されるということは容易に理解されるものとする。
図面内の、および本明細書内で論じられるような、メッセージフロー図、シナリオ、およびフローチャートのいずれかまたはすべてに関して、各ステップ、ブロック、および/または通信は、実施形態例に従う情報の処理および/または情報の伝送を表すことができる。代替の実施形態は、これらの実施形態例の範囲内に含まれる。これらの代替の実施形態において、例えば、ステップ、ブロック、伝送、通信、リクエスト、応答、および/またはメッセージとして説明される機能は、関与する機能性に応じて、実質的に同時発生または逆の順番を含め、示されるまたは論じられる順番から外れて実行することができる。さらに、より多くの、またはより少ないブロックおよび/または機能を、本明細書内で論じられるはしご図、シナリオ、およびフローチャートのいずれかと共に使用することができ、これらのはしご図、シナリオ、およびフローチャートを、部分的または全体的に、互いと組み合わせることができる。
情報の処理を表すステップまたはブロックは、本明細書内で説明される方法または技術の特定の論理機能を実施するように構成されてもよい回路に相当する可能性がある。代替的に、または加えて、情報の処理を表すステップまたはブロックは、モジュール、セグメント、またはプログラムコードの一部分(関連データを含む)に相当する可能性がある。プログラムコードは、特定の論理機能または動作を本方法または技術に組み込むためにプロセッサによって実行可能な1つまたは複数の命令を含むことができる。プログラムコードおよび/または関連データは、ディスク、ハードドライブ、または他の記憶媒体を含む記憶デバイスなど、任意の種類のコンピュータ可読媒体に格納することができる。
コンピュータ可読媒体はまた、レジスタメモリ、プロセッサキャッシュ、およびランダムアクセスメモリ(RAM)のような短期間にわたってデータを格納するコンピュータ可読媒体など、非一時的コンピュータ可読媒体を含むことができる。コンピュータ可読媒体はまた、長期間にわたってプログラムコードおよび/またはデータを格納する非一時的コンピュータ可読媒体を含むことができる。したがって、コンピュータ可読媒体は、例えば、読み取り専用メモリ(ROM)、光学または磁気ディスク、読み取り専用コンパクトディスクメモリ(CD-ROM)のような二次または持続性長期ストレージを含んでもよい。コンピュータ可読媒体はまた、任意の他の揮発性または不揮発性ストレージシステムである可能性がある。コンピュータ可読媒体は、例えば、コンピュータ可読記憶媒体、または有形の記憶デバイスと見なされる可能性がある。
さらには、1つまたは複数の情報伝送を表すステップまたはブロックは、同じ物理デバイス内のソフトウェアおよび/またはハードウェアモジュール間の情報伝送に相当する可能性がある。しかしながら、他の情報伝送は、異なる物理デバイス内のソフトウェアモジュールおよび/またはハードウェアモジュール間である可能性がある。
図面に示される特定の配置は、限定するものとして見なされるべきではない。他の実施形態は、所与の図面に示される各要素よりも多いまたは少ない要素を含むことができることを理解されたい。さらに、例証された要素の一部は、組み合わされるか、または省略される可能性がある。さらには、実施形態例は、図面に例証されない要素を含むことができる。
加えて、本明細書または請求項内における要素、ブロック、またはステップのいかなる列挙も明確性の目的のためである。したがって、そのような列挙は、これらの要素、ブロック、またはステップが、特定の配置に固執すること、または特定の順番で実行されることを要求または暗示すると解釈されるべきではない。
様々な態様および実施形態が本明細書内に開示されているが、他の態様および実施形態が当業者には明らかである。本明細書内に開示される様々な態様および実施形態は、例証の目的のためであり、限定することは意図されないものとし、真の範囲は以下の請求項によって示される。
100 デジタルカメラデバイス
101A 前面図
101B 右面図
101C 背面図
101D 背面図
102 本体
104 正面カメラ
106 多素子ディスプレイ
108 シャッターボタン
110 他のボタン
112A 背面カメラ
112B 背面カメラ
200 コンピューティングデバイス
202 通信インターフェース
204 ユーザインターフェース
206 プロセッサ
208 データストレージ
210 他の接続機構
212 データ
214 アプリケーションデータ
216 オペレーティングシステムデータ
218 プログラム命令
220 アプリケーションプログラム
222 オペレーティングシステム
224 カメラコンポーネント
300 シーン
302 左カメラ
304 右カメラ
306 左画像
308 右画像
310 ステレオ画像表現
400 対象物
402 レンズ
404 記録面
600 カラム
602 カラム
604 カラム

Claims (20)

  1. ステレオカメラの第1の画像撮影コンポーネントによって、シーンの第1の画像を撮影するステップと、
    前記ステレオカメラの第2の画像撮影コンポーネントによって、前記シーンの第2の画像を撮影するステップであって、前記第1の画像撮影コンポーネントと前記第2の画像撮影コンポーネントとの間に特定のベースライン距離が存在し、前記第1の画像撮影コンポーネントまたは前記第2の画像撮影コンポーネントのうちの少なくとも1つが焦点距離を有する、ステップと、
    前記第1の画像内に表される前記シーンの一部分と前記第2の画像内に表される前記シーンの前記一部分との間の相違を決定するステップと、
    前記相違、前記特定のベースライン距離、および前記焦点距離に基づいて、合焦距離を決定するステップと、
    前記合焦距離に焦点合わせするように前記第1の画像撮影コンポーネントおよび前記第2の画像撮影コンポーネントを設定するステップと
    を含む、方法。
  2. 前記合焦距離に焦点合わせされた前記第1の画像撮影コンポーネントによって、シーンの第3の画像を撮影するステップと、
    前記合焦距離に焦点合わせされた前記第2の画像撮影コンポーネントによって、前記シーンの第4の画像を撮影するステップと、
    前記シーンのステレオ画像を形成するために前記第3の画像および前記第4の画像の組み合わせを使用するステップと
    を含む、請求項1に記載の方法。
  3. 前記第1の画像内に表される前記シーンの前記一部分と前記第2の画像内に表される前記シーンの前記一部分との間の前記相違を決定するステップが、
    前記第1の画像内の第1のm×nピクセルブロックを特定するステップと、
    前記第2の画像内の第2のm×nピクセルブロックを特定するステップと、
    前記第1のm×nピクセルブロックおよび前記第2のm×nピクセルブロックが実質的に整列されるまで、前記第1のm×nピクセルブロックまたは前記第2のm×nピクセルブロックを移動させるステップであって、前記相違が前記移動によって表されるピクセル距離に基づく、ステップと
    を含む、請求項1に記載の方法。
  4. 前記第1のm×nピクセルブロックまたは前記第2のm×nピクセルブロックを移動させるステップが、前記第1のm×nピクセルブロックまたは前記第2のm×nピクセルブロックをx軸上でのみ移動させるステップを含む、請求項3に記載の方法。
  5. 前記シーンの前記一部分が、コーナーを有する特徴点を含み、前記第1の画像内に表される前記シーンの前記一部分と前記第2の画像内に表される前記シーンの前記一部分との間の前記相違を決定するステップが、
    前記第1の画像および前記第2の画像内の前記コーナーを検出するステップと、
    前記第1の画像および前記第2の画像内の前記コーナーが実質的にマッチするように、前記第1の画像または前記第2の画像を平行移動に従って他方にワーピングするステップであって、前記相違が前記平行移動によって表されるピクセル距離に基づく、ステップと
    を含む、請求項1に記載の方法。
  6. 前記第1の画像撮影コンポーネントおよび前記第2の画像撮影コンポーネントが、異なる画像撮影解像度を有する、請求項1に記載の方法。
  7. 前記合焦距離が、前記特定のベースラインおよび前記焦点距離の積を前記相違で割った値に基づく、請求項1に記載の方法。
  8. 前記焦点値が、特定の範囲の整数値から選択された整数値であり、前記特定の範囲の前記整数値が、それぞれ電圧と関連付けられ、前記電圧が、前記第1の画像撮影コンポーネントおよび前記第2の画像撮影コンポーネントに印加されると、前記第1の画像撮影コンポーネントおよび前記第2の画像撮影コンポーネントにほぼ前記シーンの前記一部分で焦点合わせをさせる、請求項1に記載の方法。
  9. 前記合焦距離に焦点合わせをするように前記第1の画像撮影コンポーネントおよび前記第2の画像撮影コンポーネントを設定するステップが、前記合焦距離と関連付けられた電圧を前記第1の画像撮影コンポーネントおよび前記第2の画像撮影コンポーネントの各々に印加するステップを含む、請求項8に記載の方法。
  10. 前記第1の画像および前記第2の画像を撮影する前に、前記第1の画像撮影コンポーネントおよび前記第2の画像撮影コンポーネントの特性に基づいて、前記特定の範囲内の前記整数値と前記電圧との間のそれぞれの関連性を較正するステップをさらに含む、請求項8に記載の方法。
  11. 前記第1の画像撮影コンポーネントおよび前記第2の画像撮影コンポーネントの各々が、それぞれの絞り、レンズ、および記録面を備える、請求項1に記載の方法。
  12. プログラム命令を格納した非一時的コンピュータ可読媒体を含む製品であって、前記プログラム命令が、コンピューティングデバイスによる実行時に、
    第1の画像撮影コンポーネントによって、シーンの第1の画像を撮影することと、
    第2の画像撮影コンポーネントによって、前記シーンの第2の画像を撮影することであって、前記第1の画像撮影コンポーネントと前記第2の画像撮影コンポーネントとの間に特定のベースライン距離が存在し、前記第1の画像撮影コンポーネントまたは前記第2の画像撮影コンポーネントのうちの少なくとも1つが焦点距離を有する、撮影することと、
    前記第1の画像内に表される前記シーンの一部分と前記第2の画像内に表される前記シーンの前記一部分との間の相違を決定することと、
    前記相違、前記特定のベースライン距離、および前記焦点距離に基づいて、合焦距離を決定することと、
    前記合焦距離に焦点合わせするように前記第1の画像撮影コンポーネントおよび前記第2の画像撮影コンポーネントを設定することと
    を含む動作を前記コンピューティングデバイスに実施させる、製品。
  13. 前記動作が、
    前記合焦距離に焦点合わせされた前記第1の画像撮影コンポーネントによって、シーンの第3の画像を撮影することと、
    前記合焦距離に焦点合わせされた前記第2の画像撮影コンポーネントによって、前記シーンの第4の画像を撮影することと、
    前記シーンのステレオ画像を形成するために前記第3の画像および前記第4の画像を組み合わせることと
    をさらに含む、請求項12に記載の製品。
  14. 前記第1の画像内に表される前記シーンの前記一部分と前記第2の画像内に表される前記シーンの前記一部分との間の前記相違を決定することが、
    前記第1の画像内の第1のm×nピクセルブロックを特定することと、
    前記第2の画像内の第2のm×nピクセルブロックを特定することと、
    前記第1のm×nピクセルブロックおよび前記第2のm×nピクセルブロックが実質的に整列されるまで、前記第1のm×nピクセルブロックまたは前記第2のm×nピクセルブロックを移動させることであって、前記相違が前記移動によって表されるピクセル距離に基づく、移動させることと
    を含む、請求項12に記載の製品。
  15. 前記シーンの前記一部分が、コーナーを有する特徴点を含み、前記第1の画像内に表される前記シーンの前記一部分と前記第2の画像内に表される前記シーンの前記一部分との間の前記相違を決定することが、
    前記第1の画像および前記第2の画像内の前記コーナーを検出することと、
    前記第1の画像および前記第2の画像内の前記コーナーが実質的にマッチするように、前記第1の画像または前記第2の画像を平行移動に従って他方にワーピングすることであって、前記相違が前記平行移動によって表されるピクセル距離に基づく、ワーピングすることと
    を含む、請求項12に記載の製品。
  16. 前記合焦距離が、前記特定のベースラインおよび前記焦点距離の積を前記相違で割った値に基づく、請求項12に記載の製品。
  17. 前記焦点値が、特定の範囲の整数値から選択された整数値であり、前記特定の範囲の前記整数値が、それぞれ電圧と関連付けられ、前記電圧が、前記第1の画像撮影コンポーネントおよび前記第2の画像撮影コンポーネントに印加されると、前記第1の画像撮影コンポーネントおよび前記第2の画像撮影コンポーネントにほぼ前記シーンの前記一部分で焦点合わせをさせる、請求項12に記載の製品。
  18. 前記合焦距離に焦点合わせをするように前記第1の画像撮影コンポーネントおよび前記第2の画像撮影コンポーネントを設定することが、前記合焦距離と関連付けられた電圧を前記第1の画像撮影コンポーネントおよび前記第2の画像撮影コンポーネントの各々に印加することを含む、請求項17に記載の製品。
  19. 前記動作が、前記第1の画像および前記第2の画像を撮影する前に、前記第1の画像撮影コンポーネントおよび前記第2の画像撮影コンポーネントの特性に基づいて、前記特定の範囲内の前記整数値と前記電圧との間のそれぞれの関連性を較正することをさらに含む、請求項12に記載の製品。
  20. コンピューティングデバイスであって、
    第1の画像撮影コンポーネントと、
    第2の画像撮影コンポーネントと、
    少なくとも1つのプロセッサと、
    メモリと、
    前記メモリに格納されるプログラム命令であって、前記少なくとも1つのプロセッサによって実行されると、
    前記第1の画像撮影コンポーネントによって、シーンの第1の画像を撮影することと、
    前記第2の画像撮影コンポーネントによって、前記シーンの第2の画像を撮影することであって、前記第1の画像撮影コンポーネントと前記第2の画像撮影コンポーネントとの間に特定のベースライン距離が存在し、前記第1の画像撮影コンポーネントまたは前記第2の画像撮影コンポーネントのうちの少なくとも1つが焦点距離を有する、撮影することと、
    前記第1の画像内に表される前記シーンの一部分と前記第2の画像内に表される前記シーンの前記一部分との間の相違を決定することと、
    前記相違、前記特定のベースライン距離、および前記焦点距離に基づいて、合焦距離を決定することと、
    前記合焦距離に焦点合わせするように前記第1の画像撮影コンポーネントおよび前記第2の画像撮影コンポーネントを設定することと
    を含む動作を前記コンピューティングデバイスに実施させる、プログラム命令と
    を備える、コンピューティングデバイス。
JP2017562268A 2015-12-10 2016-08-22 ステレオオートフォーカス Pending JP2018528631A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/965,575 2015-12-10
US14/965,575 US20170171456A1 (en) 2015-12-10 2015-12-10 Stereo Autofocus
PCT/US2016/048021 WO2017099854A1 (en) 2015-12-10 2016-08-22 Stereo autofocus

Publications (1)

Publication Number Publication Date
JP2018528631A true JP2018528631A (ja) 2018-09-27

Family

ID=56843060

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017562268A Pending JP2018528631A (ja) 2015-12-10 2016-08-22 ステレオオートフォーカス

Country Status (6)

Country Link
US (1) US20170171456A1 (ja)
EP (1) EP3292689A1 (ja)
JP (1) JP2018528631A (ja)
KR (1) KR20180008588A (ja)
CN (1) CN107852460A (ja)
WO (1) WO2017099854A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10187623B2 (en) * 2014-12-26 2019-01-22 Korea Electronics Technology Institute Stereo vision SoC and processing method thereof
CN107172410A (zh) * 2017-07-14 2017-09-15 闻泰通讯股份有限公司 双摄像头对焦方法及装置
US11218626B2 (en) * 2017-07-28 2022-01-04 Black Sesame International Holding Limited Fast focus using dual cameras
EP3664737B1 (en) * 2017-08-11 2024-09-11 Brainlab AG Video based patient registration and tracking
AU2019205949A1 (en) * 2018-01-07 2020-07-16 Ocula Corporation Digital-optical object tracker
JP2019168479A (ja) * 2018-03-22 2019-10-03 キヤノン株式会社 制御装置、撮像装置、制御方法、プログラム、および、記憶媒体
KR102509466B1 (ko) * 2018-08-08 2023-03-14 구글 엘엘씨 장면의 초해상도 이미지를 생성하기 위한 광학 이미지 안정화 움직임
CN110913143B (zh) * 2019-12-09 2021-04-02 Oppo广东移动通信有限公司 图像处理方法、装置、存储介质及电子设备
CN111814659B (zh) * 2020-07-07 2024-03-29 杭州海康威视数字技术股份有限公司 一种活体检测方法、和系统
US11381729B1 (en) 2021-01-08 2022-07-05 Hand Held Products, Inc. Systems, methods, and apparatuses for focus selection using image disparity

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007263657A (ja) * 2006-03-28 2007-10-11 Denso It Laboratory Inc 3次元座標取得装置
WO2011013175A1 (ja) * 2009-07-31 2011-02-03 株式会社 東芝 立体表示装置、立体表示システム
JP2011085539A (ja) * 2009-10-19 2011-04-28 Ricoh Co Ltd 測距カメラ装置
WO2011052770A1 (ja) * 2009-10-30 2011-05-05 株式会社オプトエレクトロニクス 光学的情報読取装置
JP2012208797A (ja) * 2011-03-30 2012-10-25 Casio Comput Co Ltd コード読取装置及びプログラム
US20120327195A1 (en) * 2011-06-24 2012-12-27 Mstar Semiconductor, Inc. Auto Focusing Method and Apparatus
JP2013228478A (ja) * 2012-04-24 2013-11-07 Canon Inc 撮像装置、その制御方法、および制御プログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070165942A1 (en) * 2006-01-18 2007-07-19 Eastman Kodak Company Method for rectifying stereoscopic display systems
JP5147500B2 (ja) * 2007-08-03 2013-02-20 キヤノン株式会社 撮像装置、およびその制御方法
JP2012523661A (ja) * 2009-04-08 2012-10-04 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 美的外観を備えた有機発光ダイオード素子
US8390369B2 (en) * 2010-08-05 2013-03-05 Freescale Semiconductor, Inc. Electronic circuit and method for operating a module in a functional mode and in an idle mode
WO2012057434A1 (en) * 2010-10-29 2012-05-03 Lg Electronics Inc. Stereoscopic image processing system and device and glasses
US8274552B2 (en) * 2010-12-27 2012-09-25 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
GB2489930A (en) * 2011-04-08 2012-10-17 Sony Corp Analysis of Three-dimensional Video to Produce a Time-Varying Graphical Representation of Displacements
US9007441B2 (en) * 2011-08-04 2015-04-14 Semiconductor Components Industries, Llc Method of depth-based imaging using an automatic trilateral filter for 3D stereo imagers
US9560334B2 (en) * 2011-09-08 2017-01-31 Qualcomm Incorporated Methods and apparatus for improved cropping of a stereoscopic image pair
TWI528833B (zh) * 2011-11-09 2016-04-01 鴻海精密工業股份有限公司 立體攝像裝置
US9172939B2 (en) * 2011-12-30 2015-10-27 Stmicroelectronics (Canada), Inc. System and method for adjusting perceived depth of stereoscopic images
WO2014049919A1 (ja) * 2012-09-27 2014-04-03 パナソニック株式会社 ステレオ画像処理装置およびステレオ画像処理方法
TWI471677B (zh) * 2013-04-11 2015-02-01 Altek Semiconductor Corp 自動對焦方法及自動對焦裝置
JP2015010948A (ja) * 2013-06-28 2015-01-19 キヤノン株式会社 物品処理装置、生成方法、およびプログラム
US9703175B2 (en) * 2015-07-02 2017-07-11 Qualcomm Incorporated Systems and methods for autofocus trigger
US9661298B2 (en) * 2015-08-06 2017-05-23 Intel Corporation Depth image enhancement for hardware generated depth images

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007263657A (ja) * 2006-03-28 2007-10-11 Denso It Laboratory Inc 3次元座標取得装置
WO2011013175A1 (ja) * 2009-07-31 2011-02-03 株式会社 東芝 立体表示装置、立体表示システム
JP2011085539A (ja) * 2009-10-19 2011-04-28 Ricoh Co Ltd 測距カメラ装置
WO2011052770A1 (ja) * 2009-10-30 2011-05-05 株式会社オプトエレクトロニクス 光学的情報読取装置
JP2012208797A (ja) * 2011-03-30 2012-10-25 Casio Comput Co Ltd コード読取装置及びプログラム
US20120327195A1 (en) * 2011-06-24 2012-12-27 Mstar Semiconductor, Inc. Auto Focusing Method and Apparatus
JP2013228478A (ja) * 2012-04-24 2013-11-07 Canon Inc 撮像装置、その制御方法、および制御プログラム

Also Published As

Publication number Publication date
US20170171456A1 (en) 2017-06-15
WO2017099854A1 (en) 2017-06-15
EP3292689A1 (en) 2018-03-14
KR20180008588A (ko) 2018-01-24
CN107852460A (zh) 2018-03-27

Similar Documents

Publication Publication Date Title
JP2018528631A (ja) ステレオオートフォーカス
KR102240659B1 (ko) 시야의 가리움에 기초한 카메라 선택
KR102565513B1 (ko) 다중 기술 심도 맵 취득 및 융합을 위한 방법 및 장치
US9591237B2 (en) Automated generation of panning shots
EP3443736B1 (en) Method and apparatus for video content stabilization
TWI538512B (zh) 調整對焦位置的方法及電子裝置
TWI474096B (zh) 用於影像處理的成像系統及其方法
US20150163478A1 (en) Selecting Camera Pairs for Stereoscopic Imaging
WO2017045558A1 (zh) 景深调节方法、装置及终端
WO2018228466A1 (zh) 对焦区域显示方法、装置及终端设备
US20230033956A1 (en) Estimating depth based on iris size
JP6326631B2 (ja) 撮像装置
KR20220123219A (ko) 더 깊은 피사계 심도를 위한 분할 픽셀 데이터 병합
US9843715B2 (en) Photographic apparatus, stroboscopic image prediction method, and a non-transitory computer readable storage medium storing stroboscopic image prediction program
CN114514737B (zh) 低光自动对焦方法、计算机可读介质及移动设备
TW201642008A (zh) 影像擷取裝置及其動態對焦方法
JP2019115048A (ja) 画像処理装置、画像処理方法およびプログラム
JP2016127492A (ja) 撮像装置、操作支援方法及び操作支援プログラム
TW201616168A (zh) 自動對焦方法及電子裝置
JP2017085192A (ja) 画像処理装置及びその制御方法、撮像装置、プログラム、記憶媒体
GB2524795A (en) Apparatus, method and computer program for obtaining images
JP2014090519A (ja) 撮像装置及び撮像装置の制御方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171220

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190225

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190930