JP2016122198A - 立体カメラのためのオートフォーカス - Google Patents

立体カメラのためのオートフォーカス Download PDF

Info

Publication number
JP2016122198A
JP2016122198A JP2016014352A JP2016014352A JP2016122198A JP 2016122198 A JP2016122198 A JP 2016122198A JP 2016014352 A JP2016014352 A JP 2016014352A JP 2016014352 A JP2016014352 A JP 2016014352A JP 2016122198 A JP2016122198 A JP 2016122198A
Authority
JP
Japan
Prior art keywords
image
keypoints
determining
key points
correlating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016014352A
Other languages
English (en)
Other versions
JP6271609B2 (ja
Inventor
カリン・エム.・アタナソブ
M Atanassov Kalin
セルジウ・アール.・ゴマ
R Goma Sergiu
ビカス・ラマチャンドラ
Ramachandra Vikas
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2016122198A publication Critical patent/JP2016122198A/ja
Application granted granted Critical
Publication of JP6271609B2 publication Critical patent/JP6271609B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Image Analysis (AREA)

Abstract

【課題】立体画像キャプチャ・デバイスに適した焦点深度を決定するための方法、装置、およびシステムを提供する。
【解決手段】第1の視点に関連付けられた第1の画像900aを受信し、第2の視点に関連付けられた第2の画像900bを受信し、第1の画像900aに基づいて第1の複数のキーポイント901を決定し、第1の複数のキーポイント901からのキーポイント901を第2の画像900bにおける位置と相関させ、第1の複数のキーポイント901の各々に関連付けられた複数の視差を決定し、複数の視差、第1の視点の位置、および第2の視点の位置に基づいて焦点深度を決定する。
【選択図】図9

Description

関連出願に対する相互参照
本願は、2011年3月23日に出願された、「立体画像のためのオートフォーカス(AUTOFOCUS FOR STEREO IMAGES)」と題された、米国特許仮出願番号第61/489,231号、および、2010年8月9日に出願された、「立体画像からの瞬時オートフォーカス(INSTANTANEOUS AUTOFOCUS FROM STEREO IMAGES)」と題された、米国特許仮出願番号第61/371,979号、の利益を主張する、2011年8月8日に出願された、米国特許出願第13/205,481号に対する優先権を主張し、それらの出願はここでの参照により組み込まれる。
本実施形態は、立体画像キャプチャ(stereoscopic image capture)に関し、特に、立体画像キャプチャ・デバイスに適した焦点深度(focal depth)を決定するための方法、装置、およびシステムに関する。
立体視(Stereopsis)は、人間の脳が左目および右目から見られるようなオブジェクトの相対的変位(relative displacement)に基づいて、オブジェクトの深度を解釈する処理である。立体感(stereoscopic effect)は、第1および第2の横方向オフセットの視聴位置(laterally offset viewing positions)から第1および第2のシーンの画像をとることによって、および、左および右目の各々に画像を別々に表示することによって、人為的に引き起こされ得る。時間内に一連の立体画像ペア(stereoscopic image pairs)をキャプチャすることによって、画像ペアは、ユーザに3次元を有しているように見える立体ムービーを形成するように、目に連続的に表示され得る。
2つの従来のカメラは、立体画像ペアの画像の各々を取得するために使用されることができる。従来のカメラは、異なる焦点深度で複数の画像をキャプチャするオートフォーカス手順を使用して適切に焦点を合わせることができる。最も高い頻度容量(the highest frequency content)に対応する焦点深度は、次に、次の画像キャプチャのために使用される。従来のムービー・カメラは、ビデオ・キャプチャの間、オートフォーカスするために、この方法を使用することができる。しかしながら、オートフォーカス機能が行われる間、フレームのキャプチャは、定期的に遅らせられる必要があるだろう。このオートフォーカス技術は、従来の単一カメラで2D画像をキャプチャすることに適しているが、立体画像キャプチャに対しては不適当であり得る。特に、前記技術は、ビデオ・ストリームを中断し、カメラの動き、たとえば、ユーザの手の動き、によって影響を受け得る。
ある特定の実施形態は、画像センサのための焦点深度を決定するための電子デバイスにおける方法について考察する。それら方法は、第1の視点に関連付けられた第1の画像を受信することと、第2の視点に関連付けられた第2の画像を受信することと、第1の画像に基づいて第1の複数のキーポイントを決定することと、第1の複数のキーポイントからのキーポイントを第2の画像における位置と相関させることと、第1の複数のキーポイントの各々に関連付けられた複数の視差(disparities)を決定することと、複数の視差、第1の視点の位置、および第2の視点の位置に基づいて焦点深度を決定することを含むことができる。
ある特定の実施形態において、前記方法は、第2の画像に基づいて第2の複数のキーポイントを決定することをさらに含むことができる。いくつかの実施形態において、第1の複数のキーポイントからのキーポイントを第2の画像における位置と相関させることは、第1の複数のキーポイントからのキーポイントを第2の複数のキーポイントからのキーポイントと相関させることを含む。いくつかの実施形態において、第1の複数のキーポイントからのキーポイントを第2の画像における位置と相関させることは、第2の画像における検索範囲内のピクセルを介して繰り返すことを含む。いくつかの実施形態において、第1の複数のキーポイントからのキーポイントを第2の画像における位置と相関させることは、第1の画像および第2の画像におけるピクセル間の平均2乗誤差を決定することを含む。いくつかの実施形態において、第1の画像に基づいて第1の複数のキーポイントを決定することは、第1の画像に基づいてスケール不変特徴変換(SIFT:Scale Invariant Feature Transform)キーポイントを決定することを含む。いくつかの実施形態において、第1の画像に基づいて第1の複数のキーポイントを決定することは、第1の画像をサブサンプリングすることと、第1の画像に高域フィルタ(high-pass filter)を適用することと、第1の画像の累乗(power)を計算することと、第1の画像を閾値処理することを含む。いくつかの実施形態において、第1の複数のキーポイントからのキーポイントを第2の画像における位置と相関させることは、リアルタイムで生じる。いくつかの実施形態において、電子デバイスは、携帯電話を含む。
ある特定の実施形態は、コンピュータに、第1の視点に関連付けられた第1の画像を受信し、第2の視点に関連付けられた第2の画像を受信し、第1の画像に基づいて第1の複数のキーポイントを決定し、第1の複数のキーポイントからのキーポイントを第2の画像における位置と相関させ、第1の複数のキーポイントの各々に関連付けられた複数の視差を決定し、複数の視差、第1の視点の位置、および第2の視点の位置に基づいて焦点深度を決定するステップを行わせるように構成される命令を含むコンピュータ可読媒体について考察する。
いくつかの実施形態において、前記命令は、また、プロセッサに、第2の画像に基づいて第2の複数のキーポイントを決定させるように構成される。いくつかの実施形態において、第1の複数のキーポイントからのキーポイントを第2の画像における位置と相関させることは、第1の複数のキーポイントからのキーポイントを第2の複数のキーポイントからのキーポイントと相関させることを含む。いくつかの実施形態において、第1の複数のキーポイントからのキーポイントを第2の画像における位置と相関させることは、第2の画像における検索範囲内のピクセルを介して繰り返すことを含む。いくつかの実施形態において、第1の複数のキーポイントからのキーポイントを第2の画像における位置と相関させることは、第1の画像および第2の画像におけるピクセル間の平均2乗誤差を決定することを含む。いくつかの実施形態において、第1の画像に基づいて第1の複数のキーポイントを決定することは、第1の画像に基づいてスケール不変特徴変換(SIFT)キーポイントを決定することを含む。いくつかの実施形態において、第1の画像に基づいて第1の複数のキーポイントを決定することは、第1の画像をサブサンプリングすることと、第1の画像に高域フィルタ(high-pass filter)を適用することと、第1の画像の累乗を計算することと、第1の画像を閾値処理することを含む。いくつかの実施形態において、第1の複数のキーポイントからのキーポイントを第2の画像における位置と相関させることは、リアルタイムで生じる。いくつかの実施形態において、コンピュータは、携帯電話に位置する。
ある特定の実施形態は、立体キャプチャ・デバイスの焦点を合わせるためのシステムについて考察する。前記システムは、第1の視点に関連付けられた第1の画像を生成するように構成される第1の画像センサと、第2の視点に関連付けられた第2の画像を生成するように構成される第2の画像センサと、第1の画像に基づいて第1の複数のキーポイントを決定するように構成される特徴生成モジュールと、第1の複数のキーポイントからのキーポイントを第2の画像における位置と相関させるように構成されるキーポイント相関性モジュールと、第1の複数のキーポイントの各々に関連付けられた複数の視差を決定するように構成される視差決定モジュールと、複数の視差、第1の視点の位置、および第2の視点の位置に基づいて焦点深度を決定するように構成される深度決定モジュールを含むことができる。
いくつかの実施形態において、特徴生成モジュールは、第2の画像に基づいて第2の複数のキーポイントを決定するように構成され得る。いくつかの実施形態において、キーポイントを相関させるように構成されるソフトウェア・モジュールは、第1の複数のキーポイントからのキーポイントを第2の複数のキーポイントからのキーポイントと相関させるように構成される。いくつかの実施形態において、キーポイントを相関させるように構成されるソフトウェア・モジュールは、第2の画像における検索範囲内のピクセルを介して繰り返すように構成される。いくつかの実施形態において、第1の複数のキーポイントからのキーポイントを第2の画像における位置と相関させることは、第1の画像および第2の画像におけるピクセル間の平均2乗誤差を決定することを含む。
いくつかの実施形態において、特徴生成モジュールは、第1の画像に基づいてスケール不変特徴変換(SIFT)キーポイントを決定するように構成される。いくつかの実施形態において、特徴生成モジュールは、第1の画像をサブサンプリングし、第1の画像に高域フィルタを適用し、第1の画像の累乗を計算し、第1の画像を閾値処理するように構成される。
いくつかの実施形態において、キーポイントを相関させるように構成されるソフトウェア・モジュールは、第1の複数のキーポイントからのキーポイントをリアルタイムで前記第2の画像における位置と相関させる。いくつかの実施形態において、立体キャプチャ・デバイスは、携帯電話に位置する。いくつかの実施形態において、焦点深度を決定するように構成されるソフトウェア・モジュールは、視差ヒストグラム(disparity histogram)を含む。
ある特定の実施形態は、立体キャプチャ・デバイスの焦点を合わせるためのシステムを考察し、前記システムは、第1の視点に関連付けられた第1の画像を受信するための手段と、第2の視点に関連付けられた第2の画像を受信するための手段と、第1の画像に基づいて第1の複数のキーポイントを決定するための手段と、第1の複数のキーポイントからのキーポイントを第2の画像における位置と相関させるための手段と、第1の複数のキーポイントの各々に関連付けられた複数の視差を決定するための手段と、複数の視差、第1の視点の位置、および第2の視点の位置に基づいて焦点深度を決定するための手段を含む。
いくつかの実施形態において、第1の画像を受信するための手段は、第1のセンサを含み、第2の画像を受信するための手段は、第2のセンサを含み、第1の複数のキーポイントを決定するための手段は、特徴生成モジュールを含み、相関させるための手段は、キーポイント相関性モジュールを含み、複数の視差を決定するための手段は、視差決定モジュールを含み、焦点深度を決定するための手段は、深度決定モジュールを含む。いくつかの実施形態において、第1の複数のキーポイントを決定するための手段は、第2の画像に基づいて第2の複数のキーポイントを決定するように構成される。いくつかの実施形態において、第1の複数のキーポイントからのキーポイントを第2の画像における位置と相関させるための手段は、第1の複数のキーポイントからのキーポイントを第2の複数のキーポイントからのキーポイントと相関させるように構成される。いくつかの実施形態において、第1の複数のキーポイントからのキーポイントを第2の画像における位置と相関させるための手段は、第2の画像における検索範囲内のピクセルを介して繰り返すように構成される。いくつかの実施形態において、第1の複数のキーポイントからのキーポイントを第2の画像における位置と相関させるための手段は、第1の画像および第2の画像におけるピクセル間の平均2乗誤差を決定するように構成される。いくつかの実施形態において、第1の複数のキーポイントを決定するための手段は、第1の画像に基づいてスケール不変特徴変換(SIFT)キーポイントを決定するように構成される。いくつかの実施形態において、第1の複数のキーポイントを決定するための手段は、第1の画像をサブサンプリングし、第1の画像に高域フィルタを適用し、第1の画像の累乗を計算し、第1の画像を閾値処理するように構成される。いくつかの実施形態において、キーポイントを相関させるための手段は、第1の複数のキーポイントからのキーポイントをリアルタイムで第2の画像における位置と相関させる。いくつかの実施形態において、立体キャプチャ・デバイスは、携帯電話に位置する。
開示される態様は、以下において、同一符号が同一要素を示す添付図面と連携して説明され、開示された観点を限定することなく例示するために提供される。
図1は、立体画像のキャプチャを容易にするセンサ配置(sensor arrangement)を含む1つの可能なモバイル・デバイスを図示する一般化されたブロック図である。 図2は、図1のモバイル・デバイスのような、モバイル・デバイス中のある特定のコンポーネントのブロック図である。 図3は、キャプチャ・デバイスの立体写真(stereo pair)を使用して第1および第2の位置でオブジェクトをキャプチャすることを図示する。 図4は、特定のカメラ配置のためのオブジェクトの距離とピクセル視差(pixel disparity)の関係を図示するグラフである。 図5Aは、立体感を得るために位置付けられた2つの画像キャプチャ・センサおよび任意のシーンのトップダウン・ビュー(top-down view)を図示するブロック図である。 図5Bは、オーバーレイされた(overlaid)シーンにおけるオブジェクト視差の方向および規模(magnitude)を備えた図5Aのシーンが撮影された立体画像ペアのうちの1つを図示する。 図6は、図4のグラフを図示するが、オブジェクト視差ヒストグラムおよびオーバーレイされた対応するオブジェクト深度ヒストグラムを備える。 図7は、ある特定の実施形態が新しい焦点深度を決定する処理のためのフローチャートを図示する。 図8は、ある特定の実施形態がキーポイントを決定する処理のためのフローチャートを図示する。 図9は、キーポイントが画像の各々の間と相関している領域および立体画像ペアを図示する。
詳細な説明
実施形態は、立体カメラにおける構成データを決定または設定するシステムおよび方法に関する。一実施形態において、構成データは、立体カメラの2つのレンズの適切な焦点距離に関する。一実施形態において、第1のカメラはシーンから第1の画像を受信し、第2のカメラは同一のシーンの第2の画像を受信する。キーポイントのセットは、第1の画像の分析から決定されている。キーポイントは、たとえば、画像の一部から一貫して再現されることができる任意のデータ構造を含むことができ、これにより画像部分の固有の識別を許可する。いくつかの実施形態において、キーポイントは、画像の一部に対応する複数のピクセルを含むことができる。キーポイントは、画像における位置に関連付けられ得る。第1の画像におけるキーポイントを決定した後、システムは、第2の画像において類似した位置を探す。一度、第2の画像において類似した位置が識別されると、システムは、第1の画像におけるキーポイントと、第2の画像における対応する位置との間の違いを計算する。これは、システムに、立体レンズの位置に加えて、両方のフレームにおける同一のキーポイントの位置の間の視差を周知することでシーンの焦点深度を決定することを可能にする。
本実施形態は、少なくとも立体画像ペアに基づいてセンサに適した焦点深度を決定するためのシステム、装置、および方法について考察する。特に、ある特定の実施形態は、各画像のためのキーポイントを決定することと、キーポイント間の相関性を識別することと、相関性からオブジェクトの距離を引き出すことについて考察する。当業者は、これらの実施形態がハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組み合わせで実現され得ることを理解するだろう。立体視システム(stereoscopic system)は、モバイル・ワイヤレス通信デバイス、携帯情報端末(PDAs)、ラップトップ・コンピュータ、デスクトップ・コンピュータ、デジタル・カメラ、デジタル記録デバイス、および同類のものを含む、広範囲の電子デバイスで実現され得る。
図1は、立体画像のキャプチャ、および画像を受信するための他の手段を容易にするセンサ配置を含むモバイル・デバイス100を図示する。そのようなデバイスは、携帯電話、携帯情報端末、ゲーミング・デバイス、または同様のものであり得る。デバイス100は、距離dによって分離された第1のセンサ101aおよび第2のセンサ101bを含むことができる。デバイスは、また、ユーザ入力制御102およびディスプレイ103を含むことができる。いくつかの実施形態において、ユーザが立体画像またはムービーをキャプチャするためにデバイス100を手に持つ場合、センサ101aおよび101bは、それらは垂直ではなく、水平オフセットのように位置することができる。
この特定のデバイスは2つのセンサ101aおよび101bを図示するが、当業者は、おおよそ2つの画像センサを含む立体画像キャプチャ・デバイスを容易に想像することができる。たとえば、単一センサのみを備えたデバイスは、すばやく連続してセンサ101aおよび101bの位置で2つの画像を得るために、一連のレンズまたは反射面との組み合わせで動作することができる。この配置は、同様に、下記に説明される方法で使用するための立体画像ペアを得ることができ、単一センサはそれに従って焦点を合わせられることができる。従って、本願において議論される方法およびシステムは、これらの視点が画像シーンの立体描写を容易にする限り、第1および第2の視点から2つの画像を得る任意のシステムに適応できるだろう。従って、画像センサのペアへの言及は、2つの視点から画像を受信する単一画像センサの可能性を除外すると考えられるべきではない。
図2は、図1に図示されたモバイル・デバイス100のような、モバイル・デバイス中のある特定のコンポーネントのブロック図である。センサ101aは、立体画像ペアの第1の画像を受信し、センサ101bは、立体画像ペアの第2の画像を受信する。いくつかの実施形態において、センサは画像を同時に受信することができる。デバイスは、ビデオ・フロント・エンド102およびメモリ103を含むことができる。ビデオ・フロント・エンド102は、センサ101aおよび101bから入ってくる生データ(incoming raw image data)を処理し、データをメモリ103に記憶することができる。メモリ103は、また、モバイル・デバイス100のためのさまざまなアプリケーションおよびソフトウェア・ドライバを含むことができる。たとえば、ディスプレイ・ドライバ・モジュール104は、ディスプレイ103と通信することができる。ユーザ入力モジュール106は、同様にユーザ・インタフェース102と通信することができる。ワイヤレス通信ドライバ・モジュール107は、ワイヤレス通信ハードウェア112と通信することができる。
メモリは、また、汎用プロセッサ113と通信することができる。汎用プロセッサ113は、アドバンストRISCマシン(ARM:Advanced RISC Machine)、デジタル・シグナル・プロセッサ(DSP)、またはグラフィカル処理ユニット(GPU)のような、サブ処理ユニットまたはサブプロセッサを含むことができる。これらのプロセッサは、さまざまな動作を処理するとき、ローカル・メモリと通信することができる。
ある特定の本実施形態は、システム・アーキテクチャへの「焦点深度分析モジュール(Focal Depth Analysis Module)」115a、115bの追加について考察する。いくつかの実施形態において、モジュールは、専用プロセッサ115a、または汎用プロセッサに位置するプロセッサの一部の形をとることができる。いくつかの実施形態において、モジュールは、メモリ103のようなコンピュータ可読媒体に記憶されるソフトウェア・コード115bを含むことができる。いくつかの実施形態は、ファームウェア、またはソフトウェア−ハードウェアの組み合わせとしてのメモリ115bおよび専用プロセッサ115aにおいて、モジュールの一部を設置することができる。いくつかの実施形態において、モジュールは、SIFT特徴生成システムのような特徴生成システム、およびセンサ101aおよび101bへのアクセスを許可する図2において任意の位置に存在することができる。従って、モジュールは、特徴生成および/または検出のために構成される既存のハードウェアまたはソフトウェアを活用することができる。当業者は、下記に説明される実施形態が汎用プロセッサ113におけるサブプロセッサを使用して実現されることができ、メモリ103において分離したアプリケーションとして記憶されることができることを理解するだろう。いくつかの実施形態において、SIFT特徴生成システムがソフトウェアにおいて発見されることができるのに対して、他の実施形態において、SIFT特徴生成システムはハードウェアにおいて発見されることができる。
ある特定の本実施形態は、立体画像キャプチャの幾何学的特性(geometric properties)を活用するオートフォーカス機能を提供する。図3は、トップダウン・ビューを経由して、立体カメラ配置を使用した第1の位置300a、および第2の位置300bにおけるオブジェクト304の立体画像キャプチャを図示する。第1の画像キャプチャ・デバイス301aは、第2の位置に位置する第2のキャプチャ・デバイス301bから横方向に分離される第1の位置に位置することができる。第1のキャプチャ・デバイス301aは、第1の位置から第1のシーンの画像をキャプチャすることができ、第2のキャプチャ・デバイス301bは、第2の位置から第2のシーンの画像をキャプチャすることができる。第1および第2の画像は、それに応じて、キャプチャ・デバイス301aおよび301bの位置、および方位に基づいて、第1および第2のシーンの視点に関連付けられるだろう。オブジェクト304は、両方の画像に現れ得る。いくつかの実施形態において、キャプチャ・デバイス301aおよびキャプチャ・デバイス301bは、図1のセンサ101aおよび101bとそれぞれ同一であり得る。キャプチャ・デバイス301a、301bは、垂直視差(vertical disparity)を有さず、かなり近い焦点距離を所持すると較正され(calibrated)得る。
デバイス301aの視点の中心は、線302aに沿っていく。同様に、デバイス301bの視点の中心は、線302bに沿っていく。これら2つの中心線は、位置303で交差する。述べたように、オブジェクト304は第1および第2の画像の各々で現れる。しかしながら、位置300aに関して、オブジェクト304は、量(amount)305aによって中心線302aの右に現れ、量305bによって中心線302bの左に現れる。反対に、位置300bにおいて、オブジェクト304は、量306aによって中心線302aの左に現れ、量306bによって中心線302bの右に現れる。この方法において、z方向におけるオブジェクトの相対的位置は、左および右の画像の各々における相対的変位によって反映される。
オブジェクト視差は、第2の画像におけるオブジェクトの位置と比較して第1の画像におけるオブジェクトの位置との間の違いとして定義され得る。キャプチャ・デバイス間の垂直視差がないところでは、視差は、1つの画像における位置から別の位置への横方向オフセットのみを含むことができる。当業者(one)は、左と右、または右と左の画像の間の違いとして視差を任意にとることができる。本明細書の目的について、視差は、(図3に示されるようなx方向の正(x-direction positive)を備えた)センサ301aからの画像におけるオブジェクトの位置を引いた、センサ301bからの画像におけるオブジェクトの位置として定義される。従って、負の視差(negative disparity)は、位置300aにおけるオブジェクト304の描写によりもたらされ、正の視差は、位置300bにおけるオブジェクト304の描写によりもたらされる。
センサの位置および相対的方位の知識を用いて、当業者は、カメラ配置から観測される視差、およびオブジェクトの距離、または深度の関係のグラフを構成することができる。たとえば、図4は、この1つの特定のセンサ配置のための関係のグラフである。視差401が増加するにつれて、オブジェクトの距離402も増加する。初期の負の視差は、非常にカメラ配置に近いオブジェクトのために存在することができ、すなわち、これらは図3のz方向における深度402をほとんど有していない。オブジェクトがカメラ配置からさらに移動する(すなわち、深度が増加する)につれて、視差は次第に正になり、相当な距離でオブジェクトのために横ばい状態となり始める。当業者は、図4のチャートがセンサ301a、301bが垂直である角度に依存し得るということを理解することができる。同様に、センサは図1および3のように互いに平行であり得るが、センサ間のzおよびy方向における変位は、また、グラフへの修正をもたらす。そのようなグラフは、デバイスにおけるメモリ、またはクイック・リファレンス(quick reference)に類似した記憶構造において記憶されることができる。
図5aは、いくつかのオブジェクトを含むシーンのトップダウン・ビューである。また、画像キャプチャ・デバイス301aおよび301bは、画像501aおよび501bをそれぞれ得るために、使用され得る。オブジェクト502−504は、シーン内のさまざまな深度に位置する。その結果、画像501aおよび501bにおけるオブジェクトの位置の間の視差が観測されるだろう。図5Bは、それらが生じるピクセル位置で示されるある特定の視差の規模および方向を用いて画像501aを図示する。たとえば、複数の正の視差510は、遠くのオブジェクト504に対して出現し、複数の負の視差511は、より近いオブジェクト502に対して現れる。図4のグラフを参照して、自動システムは、各視差に関連付けられた深度を決定することができる。たとえば、図6に示されるように、同一の規模の視差は、視差ヒストグラム601を形成するために、蓄積され、プロット(plotted)されてきた。深度ヒストグラム602を生成するために、対応する深度602は、センサの関係から導出されることができる。深度ヒストグラム602は、示された深度で各最大の領域における1つ以上のオブジェクトの存在を示唆するだろう。
オートフォーカス動作は、センサ101a、101bのうちの1つまたは両方に適した焦点深度の決定を含む。いくつかの実施形態において、適切な焦点深度は、オブジェクト深度ヒストグラム(object depth histogram)(または図4のようなグラフに関連したオブジェクト視差ヒストグラム)の平均値(mean)、中央値(median)、または類似した統計値をとることによって決定されることができる。特殊な順序統計フィルタ(special order statistic filter)が特定のアプリケーションを収容するために使用されることができる一方で、中央統計値は、かけ離れた値(outlying value)に対していくつかのロバスト性(robustness)を提供することができる。選択された統計値は、非常に遠くの、および非常に近くのオブジェクトが与えられる相対的な重みに依存し得る。たとえば、焦点の質は、1つの深度の範囲を通しておおよそ同じであり得るが、第2の範囲において劇的に変化する。これらの変化は、下記でより詳しく議論されている。
当業者は、第1および第2の画像の各々において発見されたオブジェクトごとのすべてのピクセルの視差を決定することによって視差ヒストグラム601を生成することができるが、これは、モバイル・デバイスでは計算的に費用がかかり、実用的ではない。すべてのピクセルの相関性が相当な数のピクセルを通して繰り返すことを必要とするだけでなく、各画像は、個別のピクセルの識別および各画像におけるオブジェクトへのその相関性を難解(difficult)にする、同一の値の複数のピクセルを含み得る。
すべてのピクセルを分析する代わりに、ある特定の本実施形態は、画像内容の「疎な(sparse)」対応する深度マップまたは「疎な」視差マップを作り出することを考察する。ある特定の実施形態において、キーポイントは、画像の各々において決定されることができ、画像におけるピクセルのすべてまたは大部分の間ではなく、キーポイント間、またはキーポイントとピクセル間の視差が、オブジェクトの深度を推測するために使用されることができる。ピクセルよりも少ないキーポイントがあるので、結果として生じる視差または深度のマップは「疎」である。キーポイントは、画像の一部から一貫して再現されることができ、これにより画像部分の固有の識別を許可する任意のデータ構造を含むことができる。キーポイントは、画像における位置に関連付けられ得る。キーポイントの固有の決定は、第2の画像に類似した、または同一部分から識別されるべきキーポイントを許可する。いくつかの実施形態において、キーポイントは、スケール不変特徴変換(SIFT)キーポイント、または、類似した特徴生成モジュールのキーポイントを含むことができる。いくつかの実施形態において、システムは、キーポイントを決定するためのサブプロセッサまたは汎用プロセッサ113において前から存在しているマシン・ビジョン・コンポーネント(machine vision components)を再利用することができる。たとえば、高域フィルタ・ブロックがキーポイント検出のために再利用されることができる。あるいは、メモリ103に記憶されるマシン・ビジョン動作を行うためのソフトウェア・ライブラリは、キーポイントを生成するために使用されることができる。この方法において、ある特定の実現は、オートフォーカスを行うためのキーポイントを生成するために他のアプリケーションに関連付けられた機能を無駄なく活用することができる。SIFT以外のアルゴリズムを適用する特徴生成モジュールのような複数のキーポイントを決定するための代替の手段が、下記でより詳しく説明されている。
図7は、立体画像キャプチャのためのオートフォーカス処理700を図示するフローチャートであり、それは、ある特定の本実施形態によって実現されることができる。処理は、少なくとも立体画像ペアを得ること、または受信すること702によって、開始する701。ある特定の実施形態は、計算時間を減らすために、画像の各々から関心領域(region of interest)をトリミングする(cropping)ことを考察する。一度、画像が受信されると、システムは、第1の画像からキーポイントを決定する703。述べたように、いくつかの実施形態において、これらのキーポイントは、SIFTまたは他の特徴検出ハードウェア、ファームウェア、またはソフトウェアを使用して決定されることができる。いくつかの実施形態において、システムは、また、第2の画像においてキーポイントを決定することができる。システムは、次に、第1の画像からのキーポイントを第2の画像における(特定のピクセル位置のような)ピクセル領域と相関させることができる704。「キーポイント相関性」ソフトウェア、ファームウェア、またはハードウェア・モジュールは、この動作を行うように構成されることができる。動作のある一部は、キーポイントを相関させるための他の手段を作り出し、他のモジュール(ファームウェア、ハードウェア、またはソフトウェア)にわたって分散されることができる。この動作は、第2の画像における第1の画像における同一の画像領域を識別するためにサーブ(serve)することができる。
視差Dは、次に、第1の画像の各キーポイントの位置と第2の画像の相関ピクセル位置との間で計算されることができる705。キーポイントが両方の画像のために計算されたところで、キーポイント間の視差は、相関キーポイントの各々の相対的位置を減算することによって決定されることができる。視差は、次に、図6の601に類似した視差ヒストグラムとして編成され、ヒストグラム602に類似した対応する深度ヒストグラムが決定されることができる。深度ヒストグラムは、次に、選択された統計値に基づいて、センサのための最大焦点深度を決定するために使用されることができる。「視差決定」ソフトウェア、ファームウェア、またはハードウェア・モジュールは、この動作を行うように構成されることができる。動作のある一部は、視差を決定するための他の手段を作り出す、他のモジュール(ファームウェア、ハードウェア、またはソフトウェア)にわたって分散されることができる。
処理700を実現する実施形態において、計算効率を改善するために、処理700は、各視差のための深度に変換し、次に、深度の平均を決定するのではなく、視差の統計値(このケースでは、平均)を決定する706。次に、単一の統計値の深度のみが、図4のそれと類似したグラフに関して決定される必要がある707。この深度は、次に、その次の画像キャプチャの間、新しいカメラの焦点深度として使用されること708ができる。
述べられたように、他の実施形態は、その代わりに、視差の各々を深度に変換することができ、次に、深度を平均する。他の実施形態は、所望の焦点深度を決定するために、平均値、中央値、またはいくつかの他の統計値を代わりにとることができる。「深度決定」ソフトウェア、ファームウェア、またはハードウェア・モジュールは、この動作を行うように構成されることができる。モジュールは、視差ヒストグラムと連動して動作することができる。動作のある一部は、焦点深度を決定するための他の手段を作り出し、他のモジュール(ファームウェア、ハードウェア、またはソフトウェア)にわたって分散されることができる。一度、焦点深度が決定されたとすると、画像センサ101aは調整され得る。センサ101bは、また、プロセッサ113によって調整されることができる、または、センサ101bはセンサ101aの焦点深度を独自に追尾することができる。上記に述べられたように、ある特定の実施形態において、単一のセンサのみが、決定された焦点深度に基づいて調整されることができる。
これらの実施形態の変化において、システムは、単に視差の平均をとるのではなく、深度を決定するために、シーンからの情報を代わりに使用することができる。たとえば、平均をとる代わりに、キーポイント視差は、単一のオブジェクトにおけるそれらの存在、および照明条件に基づいて、重み付けされ得る。たとえば、ヒストグラムは、ある特定の焦点距離に関連付けられた焦点の質(focal quality)によるヒストグラムから各ポイントを重み付けることによって向上されることができる。ある特定のカメラ配置において、焦点が3メートルにセットされた場合、2メートルと無限大(infinity)との間のオブジェクトは、良質な焦点を有することができ、1メートルから2メートル間のオブジェクトは、相当の焦点を有することができ、0.5から1メートル間のオブジェクトは劣った焦点を有し得る。図6のヒストグラムは、他の範囲よりも頻繁に優先焦点範囲が選択されるように、それに応じて重み付けされる。これは、ある特定の実施形態において、「領域の重み付け特性(region weighted saliency)」と称されることができる。他の変化において、画像からの頻度情報(frequency information)が、キーポイント選択に組み込まれることができる。テクスチャを含むオブジェクトは、テクスチャなしで、またはわずかなテクスチャで、オブジェクトよりも多くのキーポイントを生成することができ、それにより平均に影響を及ぼす。従って、テクスチャ・オブジェクトに関連付けられたキーポイントは、非テクスチャ・オブジェクトから異なる重みを受信することができる。一変化において、テクスチャ内の領域が検出されることができ、これらの領域は、次に、その領域におけるキーポイントの重みを少なくするために使用される。
立体ムービーをキャプチャする場合、処理700が、単一フレーム、すなわち、単一の立体画像ペアに適用され得る。次に、カメラ配置またはシーンが適切な焦点の再評価を必要とするように修正されるまで、決定された焦点深度は、次の画像キャプチャの間、画像センサによって使用され得る。従って、動作700は、任意の状態依存である必要はないというメリットを有する。すなわち、従来のオートフォーカス・システムは、ムービー・キャプチャ処理を定期的にタイムアウトする必要があり、焦点を再評価するために複数の焦点深度をキャプチャするだろう。対照的に、処理700は、それがフレーム遅延を生じさせないという点で「瞬時の」であり得る。これは、シームレス・フォーカス・トラッキング(seamless focus tracking)を容易にする。処理は、現在の焦点位置と焦点位置推定(focus position estimation)との間にフィードバック(または、依存性)はないので、システムの安定性をさらに保証することができる。さらに、焦点動作は単一フレームで達成され得るので、ユーザの手の動きが、任意のぶれ(blur)を生成する可能性は高くないだろう。
述べられたように、処理700のステップ703および704において生成されたキーポイントは、第2の画像に適用された場合、画像の一部にアイデンティティを割り当てることができ、一貫して理解される任意のデータ構造を含むことができる。述べられたように、いくつかの実施形態において、キーポイントは、SIFT特徴生成モジュールから生成されるスケール不変特徴変換(SIFT)キーポイントを含むことができる。図8は、特徴生成モジュールにおけるキーポイントを生成するための別の可能な処理を図示する。
処理800は、生の立体画像ペアのうちの1つを受信すること802によって開始する801。次に、画像は、できる限り雑音に対するアルゴリズムのロバスト性を改善するため、および、計算要求を減らすために、サブサンプルされる803。次に、画像は、水平な高域フィルタを通過し得る804。いくつかの実施形態において、フィルタは、
Figure 2016122198
によって与えられた応答を備えた3x4カーネル(kernel)を含むことができる。
次に、処理は、すなわち、各値を2乗することによって、画像の累乗を計算すること805ができる。最終的に、処理は、雑音および低電力値(low-power values)を除去するために、値を閾値処理すること806ができる。システムは、閾値を上回る残りの値の中から、「極大値(maximum values)」を識別するだろう。いくつかの実施形態において、極大値が、閾値を上回るそれらの画像部分であり得るのに対して、他の実施形態において、極大値は、それらの局地的な隣接値(local neighbors)に関連して定義され得る。たとえば、閾値を上回る隣接ピクセル間のデルタ(delta)は、極大値を識別するために使用されることができる。識別された極大値は、上記に説明された視差決定ステップのために使用され得るキーポイントの位置を示す。システムは、終了する808前に、これらのキーポイントの位置を記憶すること807ができる。この方法で画像をサブサンプリングおよび閾値処理をすることによって、キーポイントとしてサーブされ得るピクセル位置を決定することが必要とされる計算時間が、削減され得る。これらの実施形態におけるキーポイントがピクセル位置を含むので、ピクセル位置は、時折「キーポイント」と称されることができる。しかしながら、当業者は、変化を容易に理解するだろう。ここにおいて、キーポイントは、位置と、数多くの隣接ピクセル値および位置との両方を含む。キーポイントは、また、ピクセル値またはピクセル位置ではなく、画像部分の頻度容量またはピクセル値のグラディエント(gradients)を直接言及することができる。たとえば、SIFTキーポイントは、ピクセル・グラディエントを示すベクトルを含むことができる。
一度、第1の画像におけるキーポイントが決定されたとすると、それは、画像部分の間の視差が決定され得るように、キーポイントを第2の画像における位置と相関させるために依然として残り得る。図8の処理800によって生成されたキーポイントのようなキーポイントかどうかを決定するための可能な方法は、画像における位置と相互に関連付けられ、図9に関して説明されるだろう。図9は、立体画像ペア900aおよび900bを図示する。画像900aおよび900bの画像ペアをキャプチャするために使用される2つのセンサの構成に基づいて、各キーポイント901周囲の検索領域902を決定することができる。探索領域902は、キャプチャ・デバイス構成の結果として、キーポイントが左右の画像において変位され得る最大距離(すなわち、最大予測視差(maximum expected disparity))を、指定することができる。いくつかの実施形態において、画像センサは垂直な視差が欠如しているので、キーポイント901は、一般に、シーンにおける垂直エッジ(vertical edges)に位置することができる。
検索領域902は、画像900aおよび900bの各々の同一の絶対位置(absolute position)に位置する。図9において、検索領域902は、画像900aおよび900bの間に垂直な視差が存在しないと仮定される(すなわち、同列におけるピクセルのみが考慮される)ので、単一ピクセルの高さを有する長方形(rectangle)を含む。領域902の高さは、画像900aおよび900bの間に存在し得る垂直な視差の量に関して増加され得る。システムは、第2の画像900bの検索領域902における各ピクセルを通して繰り返すことができ、キーポイント901を囲む画像900aの一部とのピクセルの対応を決定することができる。これは、下記にさらに詳しく説明される相関メトリック(correlation metric)を使用していくつかの実施形態において達成され得る。
ある特定の実施形態において、キーポイントは、単に画像900aのためではなく、画像900aと画像900bの両方のために決定され得る。画像間のキーポイントを相関させることを試みる場合、システムは、第2の画像900bにおける検索領域902内でキーポイントを識別することができる。画像900bのうちの1つのキーポイントのみが検索領域902において発見された場合、このキーポイントは、第1の画像からのキーポイントと相互に関連付けられることができる。画像900bの2つ以上のキーポイントが領域902に存在するところで、システムは、どのキーポイントが第1の画像からのキーポイント901に最も良く対応するかを決定するために、検索領域902における画像900bの各キーポイントに対して相関メトリックを適用することができる。キーポイントが1つの画像のみのためにとられる場合、メトリックが適用されるのと同様に、メトリックは、キーポイント901および901bが、画像900aおよび900bの各々における同一のシーンの一部を参照する可能性が高いことを確認するために、キーポイント901および901bのピクセル位置に隣接するピクセル値を考慮し得る。キーポイントが両方の画像のために作り出されているところで、領域内の各ピクセル間ではなく、領域902におけるキーポイント間で繰り返すことのみが必要であり得る。
上記説明された実施形態において、システムは、決定されたキーポイント901に対応する検索領域902のある特定のピクセルを通して繰り返す。システムは、領域902における各ピクセルに相関メトリックを適用することができる。キーポイント901の位置を囲む領域との最大相関性を有する領域902におけるピクセルは、次に、キーポイント901と相互に関連付けられ得る。領域902における画像900bの各ピクセルを通して繰り返すための計算コスト(computational cost)は、画像900bのすべてのためのキーポイントを計算し、各キーポイント間の相関性を決定するためのコストよりも少ない。しかしながら、いくつかの実施形態において、ほんのわずかなキーポイントのみが生成されたところで、システムは、1つの画像のキーポイントに関連付けられた領域902の間で繰り返すのではなく、すべてのキーポイント間の相関性を直接決定することができる。
ある特定の実施形態において、900aにおけるキーポイントに対応する画像900bにおけるキーポイントまたはピクセル位置を識別するために使用される相関性メトリックは、考慮中の画像900bにおける位置を囲むピクセル、および画像900aにおけるキーポイントの位置を囲むピクセルための平均2乗誤差の計算を含むことができる。すなわち、画像900bにおける検索領域902における位置のための隣接ピクセルおよび第1画像のピクセル隣接キーポイント901の平均2乗誤差は、相関性メトリックとして使用されることができる。平均2乗誤差は、
Figure 2016122198
として計算されることができ、ここで、Rは、平均2乗誤差であり、Sleftは、画像900aにおけるピクセル値を含み、Srightは、画像900bにおけるピクセル値を含み、MおよびNは、検査中の領域902のピクセル位置または現在のキーポイントのための領域902に対する画像の中に、水平および垂直オフセットを含み、Δは、検索領域902における現在の位置のために適用された水平偏移(horizontal shift)を含む(SleftおよびSrightに対する第1のパラメータは、列の位置(column position)/x軸、および第2の行の位置(row position)/y軸である)。平均2乗誤差は上記例の7x7ウィンドウ(window)内であるが、当業者は、画像解像度および適用されたサブサンプリングによって、ウィンドウ寸法(window dimensions)の範囲を容易に思い描くことできる。さらに、センサ101aおよび101bは、上記の例において1つも垂直な視差を有することがないと推定されるので、検索領域902は、水平にのみ拡大し、Δは、x軸/列の方向(column direction)にのみ現れる。より多くのロバスト・システムは、検索領域902の高さを増加させること、および垂直方向のΔを含むことによって、センサの位置付け(sensor positioning)におけるエラーを補償することができる。画像がダウンサンプルされる(downsampled)につれて、サブピクセル解像度は、キーポイント901と相互に関連付けられた画像900bの領域902におけるピクセルのより正確な決定を容易にするために、いくつかの実施形態において、多項式補間(polynomial interpolation)のような、補間を使用して決定されることができる。すなわち、センサ101aに関連するセンサ101bの変位は、正確なピクセルの整数であることができない。したがって、特にサブサンプリング後、正確なキーポイント901の相関性は、検索領域902におけるピクセル間の位置を含むことを必要とし得る。キーポイント901と最大限に相互に関連付けられた画像900bの領域902における位置は、補間されたポイントにおいて、ピクセル位置の中間に位置する(fall between)。
ここに開示された実現に関連して記載されたさまざまな例示的な論理ブロック、モジュール、および回路は、汎用プロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールド・プログラマブル・ゲート・アレイ(FPGA)または他のプログラマブル論理デバイス、離散ゲートまたはトランジスタ論理、離散ハードウェア・コンポーネント、または、ここに説明される機能を実行するように設計されたこれら任意の組み合わせとともに実現または実行されることができる。汎用プロセッサは、マイクロ・プロセッサであることができるが、あるいは、プロセッサは、任意の従来のプロセッサ、コントローラ、マイクロコントローラ、または状態機械(state machine)であることができる。プロセッサは、また、たとえばDSPとマイクロ・プロセッサの組み合わせ、複数のマイクロ・プロセッサ、DSPコアと連動する1つ以上のマイクロ・プロセッサ、または任意の他のこのような構成であるコンピューティング・デバイスの組み合わせとして実現されることができる。
ここで開示された実現に関連して説明された方法または処理のステップは、ハードウェアで直接的に、プロセッサによって実行されるソフトウェア・モジュールで、または両者の組み合わせで具現化されることができる。ソフトウェア・モジュールは、RAMメモリ、フラッシュ・メモリ、ROMメモリ、EPROMメモリ、EEPROM(登録商標)メモリ、レジスタ、ハード・ディスク、リムーバブル・ディスク、CD−ROM、または当該技術で周知の任意の他の形態の非一時的な記憶媒体に存在することができる。例示的なコンピュータ可読記憶媒体は、プロセッサがコンピュータ可読記憶媒体から情報を読み出し、コンピュータ可読記憶媒体に情報を書き込むことができるように、プロセッサに結合される。あるいは、記憶媒体は、プロセッサと一体化されることができる。プロセッサおよび記憶媒体は、ASICに存在することができる。ASICは、ユーザ端末、カメラ、または他のデバイスに存在することができる。あるいは、プロセッサおよび記憶媒体は、ユーザ端末、カメラ、または他のデバイスに離散コンポーネントとして存在することができる。
見出し(headings)は、参考のために、およびさまざまなセクションの位置を特定することを支援するために、ここに含まれる。これらの見出しは、それについて説明された概念の範囲を限定するように意図されてはいない。そのような概念は、明細書全体を通して適用性を有することができる。
開示の実現の先の説明は、いずれの当業者でも本発明を作り出し、使用することを可能にさせるために提供されている。これらの実現に対するさまざまな変更は、当業者に容易に理解され、ここで定義される一般的な原理は、本発明の精神または範囲から逸脱することなく、他の実現に適応することができる。このように、本発明は、ここに説明された実現に限定されることは意図しておらず、ここに開示される原理および新規な特徴と一致する可能性がある最も広い範囲が付与されるべきである。
開示の実現の先の説明は、いずれの当業者でも本発明を作り出し、使用することを可能にさせるために提供されている。これらの実現に対するさまざまな変更は、当業者に容易に理解され、ここで定義される一般的な原理は、本発明の精神または範囲から逸脱することなく、他の実現に適応することができる。このように、本発明は、ここに説明された実現に限定されることは意図しておらず、ここに開示される原理および新規な特徴と一致する可能性がある最も広い範囲が付与されるべきである。
以下に本願発明の当初の特許請求の範囲に記載された発明を付記する。
[C1]
第1の視点に関連付けられた第1の画像を受信することと、
第2の視点に関連付けられた第2の画像を受信することと、
前記第1の画像に基づいて第1の複数のキーポイントを決定することと、
前記第1の複数のキーポイントからのキーポイントを前記第2の画像における位置と相関させることと、
前記第1の複数のキーポイントの各々に関連付けられた複数の視差を決定することと、
前記複数の視差、前記第1の視点の前記位置、および前記第2の視点の前記位置に基づいて焦点深度を決定することと
を含む、画像センサのための焦点深度を決定するための電子デバイスにおける方法。
[C2]
前記第2の画像に基づいて第2の複数のキーポイントを決定することをさらに含む、C1に記載の方法。
[C3]
前記第1の複数のキーポイントからのキーポイントを前記第2の画像における位置と相関させることは、前記第1の複数のキーポイントからのキーポイントを前記第2の複数のキーポイントからのキーポイントと相関させることを含む、C2に記載の方法。
[C4]
前記第1の複数のキーポイントからのキーポイントを前記第2の画像における位置と相関させることは、前記第2の画像における検索範囲内のピクセルを介して繰り返すことを含む、C1に記載の方法。
[C5]
前記第1の複数のキーポイントからのキーポイントを前記第2の画像における位置と相関させることは、前記第1の画像および前記第2の画像におけるピクセル間の平均2乗誤差を決定することを含む、C4に記載の方法。
[C6]
前記第1の画像に基づいて第1の複数のキーポイントを決定することは、前記第1の画像に基づいてスケール不変特徴変換(SIFT)キーポイントを決定することを含む、C1に記載の方法。
[C7]
前記第1の画像に基づいて第1の複数のキーポイントを決定することは、前記第1の画像をサブサンプリングすることと、前記第1の画像に高域フィルタを適用することと、前記第1の画像の累乗を計算することと、前記第1の画像を閾値処理することを含む、C1に記載の方法。
[C8]
前記第1の複数のキーポイントからのキーポイントを前記第2の画像における位置と相関させることは、リアルタイムで生じる、C1に記載の方法。
[C9]
前記電子デバイスは、携帯電話を含む、C1に記載の方法。
[C10]
コンピュータに、
第1の視点に関連付けられた第1の画像を受信する、
第2の視点に関連付けられた第2の画像を受信する、
前記第1の画像に基づいて第1の複数のキーポイントを決定する、
前記第1の複数のキーポイントからのキーポイントを前記第2の画像における位置と相関させる、
前記第1の複数のキーポイントの各々に関連付けられた複数の視差を決定する、
前記複数の視差、前記第1の視点の前記位置、および前記第2の視点の前記位置に基づいて焦点深度を決定するステップを行わせるように構成される命令を含む、コンピュータ可読媒体。
[C11]
前記第2の画像に基づいて第2の複数のキーポイントを決定することをさらに含む、C10に記載のコンピュータ可読媒体。
[C12]
前記第1の複数のキーポイントからのキーポイントを前記第2の画像における位置と相関させることは、前記第1の複数のキーポイントからのキーポイントを前記第2の複数のキーポイントからのキーポイントと相関させることを含む、C11に記載のコンピュータ可読媒体。
[C13]
前記第1の複数のキーポイントからのキーポイントを前記第2の画像における位置と相関させることは、前記第2の画像における検索範囲内のピクセルを介して繰り返すことを含む、C10に記載のコンピュータ可読媒体。
[C14]
前記第1の複数のキーポイントからのキーポイントを前記第2の画像における位置と相関させることは、前記第1の画像および前記第2の画像におけるピクセル間の平均2乗誤差を決定することを含む、C13に記載のコンピュータ可読媒体。
[C15]
前記第1の画像に基づいて第1の複数のキーポイントを決定することは、前記第1の画像に基づいてスケール不変特徴変換(SIFT)キーポイントを決定することを含む、C10に記載のコンピュータ可読媒体。
[C16]
前記第1の画像に基づいて第1の複数のキーポイントを決定することは、前記第1の画像をサブサンプリングすることと、前記第1の画像に高域フィルタを適用することと、前記第1の画像の累乗を計算することと、前記第1の画像を閾値処理することを含む、C10に記載のコンピュータ可読媒体。
[C17]
前記第1の複数のキーポイントからのキーポイントを前記第2の画像における位置と相関させることは、リアルタイムで生じる、C10に記載のコンピュータ可読媒体。
[C18]
前記コンピュータは、携帯電話に位置する、C10に記載のコンピュータ可読媒体。
[C19]
立体キャプチャ・デバイスの焦点を合わせるためのシステムであって、前記システムは、
第1の視点に関連付けられた第1の画像を生成するように構成される第1の画像センサと、
第2の視点に関連付けられた第2の画像を生成するように構成される第2の画像センサと、
前記第1の画像に基づいて第1の複数のキーポイントを決定するように構成される特徴生成モジュールと、
前記第1の複数のキーポイントからのキーポイントを前記第2の画像における位置と相関させるように構成されるキーポイント相関性モジュールと、
前記第1の複数のキーポイントの各々に関連付けられた複数の視差を決定するように構成される視差決定モジュールと、
前記複数の視差、前記第1の視点の前記位置、および前記第2の視点の前記位置に基づいて焦点深度を決定するように構成される深度決定モジュールと
を含む、システム。
[C20]
前記特徴生成モジュールは、前記第2の画像に基づいて第2の複数のキーポイントを決定するように構成される、C19に記載のシステム。
[C21]
キーポイントを相関させるように構成される前記モジュールは、前記第1の複数のキーポイントからのキーポイントを前記第2の複数のキーポイントからのキーポイントと相関させるように構成される、C20に記載のシステム。
[C22]
キーポイントを相関させるように構成される前記モジュールは、前記第2の画像における検索範囲内のピクセルを介して繰り返すように構成される、C19に記載のシステム。
[C23]
前記第1の複数のキーポイントからのキーポイントを前記第2の画像における位置と相関させることは、前記第1の画像および前記第2の画像におけるピクセル間の平均2乗誤差を決定することを含む、C22に記載のシステム。
[C24]
前記特徴生成モジュールは、前記第1の画像に基づいてスケール不変特徴変換(SIFT)キーポイントを決定するように構成される、C19に記載のシステム。
[C25]
前記特徴生成モジュールは、前記第1の画像をサブサンプリングし、前記第1の画像に高域フィルタを適用し、前記第1の画像の累乗を計算し、前記第1の画像を閾値処理するように構成される、C19に記載のシステム。
[C26]
キーポイントを相関させるように構成される前記モジュールは、前記第1の複数のキーポイントからのキーポイントをリアルタイムで前記第2の画像における位置と相関させる、C19に記載のシステム。
[C27]
前記立体キャプチャ・デバイスは、携帯電話に位置する、C19に記載のシステム。
[C28]
前記モジュールは、視差ヒストグラムを含む焦点深度を決定するように構成される、C19に記載のシステム。
[C29]
立体キャプチャ・デバイスの焦点を合わせるためのシステムであって、前記システムは、
第1の視点に関連付けられた第1の画像を受信するための手段と、
第2の視点に関連付けられた第2の画像を受信するための手段と、
前記第1の画像に基づいて第1の複数のキーポイントを決定するための手段と、
前記第1の複数のキーポイントからのキーポイントを前記第2の画像における位置と相関させるための手段と、
前記第1の複数のキーポイントの各々に関連付けられた複数の視差を決定するための手段と、
前記複数の視差、前記第1の視点の前記位置、および前記第2の視点の前記位置に基づいて焦点深度を決定するための手段と
を含む、システム。
[C30]
第1の画像を受信するための前記手段は、第1のセンサを含み、第2の画像を受信するための前記手段は、第2のセンサを含み、第1の複数のキーポイントを決定するための前記手段は、特徴生成モジュールを含み、相関させるための前記手段は、キーポイント相関性モジュールを含み、複数の視差を決定するための前記手段は、視差決定モジュールを含み、焦点深度を決定するための前記手段は、深度決定モジュールを含む、C29に記載のシステム。
[C31]
第1の複数のキーポイントを決定するための前記手段は、前記第2の画像に基づいて第2の複数のキーポイントを決定するように構成される、C29に記載のシステム。
[C32]
前記第1の複数のキーポイントからのキーポイントを前記第2の画像における位置と相関させるための前記手段は、前記第1の複数のキーポイントからのキーポイントを前記第2の複数のキーポイントからのキーポイントと相関させるように構成される、C31に記載のシステム。
[C33]
前記第1の複数のキーポイントからのキーポイントを前記第2の画像における位置と相関させるための前記手段は、前記第2の画像における検索範囲内のピクセルを介して繰り返すように構成される、C29に記載のシステム。
[C34]
前記第1の複数のキーポイントからのキーポイントを前記第2の画像における位置と相関させるための前記手段は、前記第1の画像および前記第2の画像におけるピクセル間の平均2乗誤差を決定するように構成される、C33に記載のシステム。
[C35]
第1の複数のキーポイントを決定するための前記手段は、前記第1の画像に基づいてスケール不変特徴変換(SIFT)キーポイントを決定するように構成される、C29に記載のシステム。
[C36]
第1の複数のキーポイントを決定するための前記手段は、前記第1の画像をサブサンプリングし、前記第1の画像に高域フィルタを適用し、前記第1の画像の累乗を計算し、前記第1の画像を閾値処理するように構成される、C29に記載のシステム。
[C37]
キーポイントを相関させるための前記手段は、前記第1の複数のキーポイントからの前記キーポイントをリアルタイムで前記第2の画像における位置と相関させる、C29に記載のシステム。
[C38]
前記立体キャプチャ・デバイスは、携帯電話に位置する、C29に記載のシステム。

Claims (38)

  1. 第1の視点に関連付けられた第1の画像を受信することと、
    第2の視点に関連付けられた第2の画像を受信することと、
    前記第1の画像に基づいて第1の複数のキーポイントを決定することと、
    前記第1の複数のキーポイントからのキーポイントを前記第2の画像における位置と相関させることと、
    前記第1の複数のキーポイントの各々に関連付けられた複数の視差を決定することと、
    前記複数の視差、前記第1の視点の前記位置、および前記第2の視点の前記位置に基づいて焦点深度を決定することと
    を含む、画像センサのための焦点深度を決定するための電子デバイスにおける方法。
  2. 前記第2の画像に基づいて第2の複数のキーポイントを決定することをさらに含む、請求項1に記載の方法。
  3. 前記第1の複数のキーポイントからのキーポイントを前記第2の画像における位置と相関させることは、前記第1の複数のキーポイントからのキーポイントを前記第2の複数のキーポイントからのキーポイントと相関させることを含む、請求項2に記載の方法。
  4. 前記第1の複数のキーポイントからのキーポイントを前記第2の画像における位置と相関させることは、前記第2の画像における検索範囲内のピクセルを介して繰り返すことを含む、請求項1に記載の方法。
  5. 前記第1の複数のキーポイントからのキーポイントを前記第2の画像における位置と相関させることは、前記第1の画像および前記第2の画像におけるピクセル間の平均2乗誤差を決定することを含む、請求項4に記載の方法。
  6. 前記第1の画像に基づいて第1の複数のキーポイントを決定することは、前記第1の画像に基づいてスケール不変特徴変換(SIFT)キーポイントを決定することを含む、請求項1に記載の方法。
  7. 前記第1の画像に基づいて第1の複数のキーポイントを決定することは、前記第1の画像をサブサンプリングすることと、前記第1の画像に高域フィルタを適用することと、前記第1の画像の累乗を計算することと、前記第1の画像を閾値処理することを含む、請求項1に記載の方法。
  8. 前記第1の複数のキーポイントからのキーポイントを前記第2の画像における位置と相関させることは、リアルタイムで生じる、請求項1に記載の方法。
  9. 前記電子デバイスは、携帯電話を含む、請求項1に記載の方法。
  10. コンピュータに、
    第1の視点に関連付けられた第1の画像を受信する、
    第2の視点に関連付けられた第2の画像を受信する、
    前記第1の画像に基づいて第1の複数のキーポイントを決定する、
    前記第1の複数のキーポイントからのキーポイントを前記第2の画像における位置と相関させる、
    前記第1の複数のキーポイントの各々に関連付けられた複数の視差を決定する、
    前記複数の視差、前記第1の視点の前記位置、および前記第2の視点の前記位置に基づいて焦点深度を決定するステップを行わせるように構成される命令を含む、コンピュータ可読媒体。
  11. 前記第2の画像に基づいて第2の複数のキーポイントを決定することをさらに含む、請求項10に記載のコンピュータ可読媒体。
  12. 前記第1の複数のキーポイントからのキーポイントを前記第2の画像における位置と相関させることは、前記第1の複数のキーポイントからのキーポイントを前記第2の複数のキーポイントからのキーポイントと相関させることを含む、請求項11に記載のコンピュータ可読媒体。
  13. 前記第1の複数のキーポイントからのキーポイントを前記第2の画像における位置と相関させることは、前記第2の画像における検索範囲内のピクセルを介して繰り返すことを含む、請求項10に記載のコンピュータ可読媒体。
  14. 前記第1の複数のキーポイントからのキーポイントを前記第2の画像における位置と相関させることは、前記第1の画像および前記第2の画像におけるピクセル間の平均2乗誤差を決定することを含む、請求項13に記載のコンピュータ可読媒体。
  15. 前記第1の画像に基づいて第1の複数のキーポイントを決定することは、前記第1の画像に基づいてスケール不変特徴変換(SIFT)キーポイントを決定することを含む、請求項10に記載のコンピュータ可読媒体。
  16. 前記第1の画像に基づいて第1の複数のキーポイントを決定することは、前記第1の画像をサブサンプリングすることと、前記第1の画像に高域フィルタを適用することと、前記第1の画像の累乗を計算することと、前記第1の画像を閾値処理することを含む、請求項10に記載のコンピュータ可読媒体。
  17. 前記第1の複数のキーポイントからのキーポイントを前記第2の画像における位置と相関させることは、リアルタイムで生じる、請求項10に記載のコンピュータ可読媒体。
  18. 前記コンピュータは、携帯電話に位置する、請求項10に記載のコンピュータ可読媒体。
  19. 立体キャプチャ・デバイスの焦点を合わせるためのシステムであって、前記システムは、
    第1の視点に関連付けられた第1の画像を生成するように構成される第1の画像センサと、
    第2の視点に関連付けられた第2の画像を生成するように構成される第2の画像センサと、
    前記第1の画像に基づいて第1の複数のキーポイントを決定するように構成される特徴生成モジュールと、
    前記第1の複数のキーポイントからのキーポイントを前記第2の画像における位置と相関させるように構成されるキーポイント相関性モジュールと、
    前記第1の複数のキーポイントの各々に関連付けられた複数の視差を決定するように構成される視差決定モジュールと、
    前記複数の視差、前記第1の視点の前記位置、および前記第2の視点の前記位置に基づいて焦点深度を決定するように構成される深度決定モジュールと
    を含む、システム。
  20. 前記特徴生成モジュールは、前記第2の画像に基づいて第2の複数のキーポイントを決定するように構成される、請求項19に記載のシステム。
  21. キーポイントを相関させるように構成される前記モジュールは、前記第1の複数のキーポイントからのキーポイントを前記第2の複数のキーポイントからのキーポイントと相関させるように構成される、請求項20に記載のシステム。
  22. キーポイントを相関させるように構成される前記モジュールは、前記第2の画像における検索範囲内のピクセルを介して繰り返すように構成される、請求項19に記載のシステム。
  23. 前記第1の複数のキーポイントからのキーポイントを前記第2の画像における位置と相関させることは、前記第1の画像および前記第2の画像におけるピクセル間の平均2乗誤差を決定することを含む、請求項22に記載のシステム。
  24. 前記特徴生成モジュールは、前記第1の画像に基づいてスケール不変特徴変換(SIFT)キーポイントを決定するように構成される、請求項19に記載のシステム。
  25. 前記特徴生成モジュールは、前記第1の画像をサブサンプリングし、前記第1の画像に高域フィルタを適用し、前記第1の画像の累乗を計算し、前記第1の画像を閾値処理するように構成される、請求項19に記載のシステム。
  26. キーポイントを相関させるように構成される前記モジュールは、前記第1の複数のキーポイントからのキーポイントをリアルタイムで前記第2の画像における位置と相関させる、請求項19に記載のシステム。
  27. 前記立体キャプチャ・デバイスは、携帯電話に位置する、請求項19に記載のシステム。
  28. 前記モジュールは、視差ヒストグラムを含む焦点深度を決定するように構成される、請求項19に記載のシステム。
  29. 立体キャプチャ・デバイスの焦点を合わせるためのシステムであって、前記システムは、
    第1の視点に関連付けられた第1の画像を受信するための手段と、
    第2の視点に関連付けられた第2の画像を受信するための手段と、
    前記第1の画像に基づいて第1の複数のキーポイントを決定するための手段と、
    前記第1の複数のキーポイントからのキーポイントを前記第2の画像における位置と相関させるための手段と、
    前記第1の複数のキーポイントの各々に関連付けられた複数の視差を決定するための手段と、
    前記複数の視差、前記第1の視点の前記位置、および前記第2の視点の前記位置に基づいて焦点深度を決定するための手段と
    を含む、システム。
  30. 第1の画像を受信するための前記手段は、第1のセンサを含み、第2の画像を受信するための前記手段は、第2のセンサを含み、第1の複数のキーポイントを決定するための前記手段は、特徴生成モジュールを含み、相関させるための前記手段は、キーポイント相関性モジュールを含み、複数の視差を決定するための前記手段は、視差決定モジュールを含み、焦点深度を決定するための前記手段は、深度決定モジュールを含む、請求項29に記載のシステム。
  31. 第1の複数のキーポイントを決定するための前記手段は、前記第2の画像に基づいて第2の複数のキーポイントを決定するように構成される、請求項29に記載のシステム。
  32. 前記第1の複数のキーポイントからのキーポイントを前記第2の画像における位置と相関させるための前記手段は、前記第1の複数のキーポイントからのキーポイントを前記第2の複数のキーポイントからのキーポイントと相関させるように構成される、請求項31に記載のシステム。
  33. 前記第1の複数のキーポイントからのキーポイントを前記第2の画像における位置と相関させるための前記手段は、前記第2の画像における検索範囲内のピクセルを介して繰り返すように構成される、請求項29に記載のシステム。
  34. 前記第1の複数のキーポイントからのキーポイントを前記第2の画像における位置と相関させるための前記手段は、前記第1の画像および前記第2の画像におけるピクセル間の平均2乗誤差を決定するように構成される、請求項33に記載のシステム。
  35. 第1の複数のキーポイントを決定するための前記手段は、前記第1の画像に基づいてスケール不変特徴変換(SIFT)キーポイントを決定するように構成される、請求項29に記載のシステム。
  36. 第1の複数のキーポイントを決定するための前記手段は、前記第1の画像をサブサンプリングし、前記第1の画像に高域フィルタを適用し、前記第1の画像の累乗を計算し、前記第1の画像を閾値処理するように構成される、請求項29に記載のシステム。
  37. キーポイントを相関させるための前記手段は、前記第1の複数のキーポイントからの前記キーポイントをリアルタイムで前記第2の画像における位置と相関させる、請求項29に記載のシステム。
  38. 前記立体キャプチャ・デバイスは、携帯電話に位置する、請求項29に記載のシステム。
JP2016014352A 2010-08-09 2016-01-28 立体カメラのためのオートフォーカス Active JP6271609B2 (ja)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US37197910P 2010-08-09 2010-08-09
US61/371,979 2010-08-09
US201161489231P 2011-05-23 2011-05-23
US61/489,231 2011-05-23
US13/205,481 US9485495B2 (en) 2010-08-09 2011-08-08 Autofocus for stereo images
US13/205,481 2011-08-08

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013524182A Division JP6253981B2 (ja) 2010-08-09 2011-08-09 立体カメラのためのオートフォーカス

Publications (2)

Publication Number Publication Date
JP2016122198A true JP2016122198A (ja) 2016-07-07
JP6271609B2 JP6271609B2 (ja) 2018-01-31

Family

ID=45555864

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2013524182A Active JP6253981B2 (ja) 2010-08-09 2011-08-09 立体カメラのためのオートフォーカス
JP2016014352A Active JP6271609B2 (ja) 2010-08-09 2016-01-28 立体カメラのためのオートフォーカス

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2013524182A Active JP6253981B2 (ja) 2010-08-09 2011-08-09 立体カメラのためのオートフォーカス

Country Status (6)

Country Link
US (1) US9485495B2 (ja)
EP (2) EP3582488A1 (ja)
JP (2) JP6253981B2 (ja)
KR (1) KR101862889B1 (ja)
CN (1) CN103053154B (ja)
WO (1) WO2012021541A1 (ja)

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9438889B2 (en) 2011-09-21 2016-09-06 Qualcomm Incorporated System and method for improving methods of manufacturing stereoscopic image sensors
US9041709B2 (en) * 2011-11-01 2015-05-26 Koninklijke Philips N.V. Saliency based disparity mapping
US8989481B2 (en) * 2012-02-13 2015-03-24 Himax Technologies Limited Stereo matching device and method for determining concave block and convex block
US20140037135A1 (en) * 2012-07-31 2014-02-06 Omek Interactive, Ltd. Context-driven adjustment of camera parameters
US9398264B2 (en) 2012-10-19 2016-07-19 Qualcomm Incorporated Multi-camera system using folded optics
JP6070060B2 (ja) * 2012-10-26 2017-02-01 株式会社ニコン 撮像装置およびプログラム
CN102970548B (zh) * 2012-11-27 2015-01-21 西安交通大学 一种图像深度感知装置
US10771757B2 (en) 2012-12-10 2020-09-08 Mediatek Inc. Method and appartus for stereoscopic focus control of stereo camera
US9948918B2 (en) 2012-12-10 2018-04-17 Mediatek Inc. Method and apparatus for stereoscopic focus control of stereo camera
US10931927B2 (en) * 2013-01-31 2021-02-23 Sony Pictures Technologies Inc. Method and system for re-projection for multiple-view displays
JP6288952B2 (ja) * 2013-05-28 2018-03-07 キヤノン株式会社 撮像装置およびその制御方法
CN103417176B (zh) * 2013-08-01 2015-02-18 深圳先进技术研究院 胶囊内窥镜及其自动调焦的方法
US10178373B2 (en) 2013-08-16 2019-01-08 Qualcomm Incorporated Stereo yaw correction using autofocus feedback
CN103795934B (zh) * 2014-03-03 2018-06-01 联想(北京)有限公司 一种图像处理方法及电子设备
US9383550B2 (en) 2014-04-04 2016-07-05 Qualcomm Incorporated Auto-focus in low-profile folded optics multi-camera system
US9374516B2 (en) 2014-04-04 2016-06-21 Qualcomm Incorporated Auto-focus in low-profile folded optics multi-camera system
US10244225B2 (en) 2014-06-12 2019-03-26 Inuitive Ltd. Method for determining depth for generating three dimensional images
US10013764B2 (en) 2014-06-19 2018-07-03 Qualcomm Incorporated Local adaptive histogram equalization
US9386222B2 (en) 2014-06-20 2016-07-05 Qualcomm Incorporated Multi-camera system using folded optics free from parallax artifacts
US9819863B2 (en) 2014-06-20 2017-11-14 Qualcomm Incorporated Wide field of view array camera for hemispheric and spherical imaging
US9549107B2 (en) 2014-06-20 2017-01-17 Qualcomm Incorporated Autofocus for folded optic array cameras
US9541740B2 (en) 2014-06-20 2017-01-10 Qualcomm Incorporated Folded optic array camera using refractive prisms
US9294672B2 (en) 2014-06-20 2016-03-22 Qualcomm Incorporated Multi-camera system using folded optics free from parallax and tilt artifacts
KR101882931B1 (ko) * 2014-07-10 2018-07-30 삼성전자주식회사 다시점 영상 디스플레이 장치 및 그의 디스패리티 측정 방법
WO2016025962A1 (en) * 2014-08-15 2016-02-18 The University Of Akron Device and method for three-dimensional video communication
US9832381B2 (en) 2014-10-31 2017-11-28 Qualcomm Incorporated Optical image stabilization for thin cameras
KR101705333B1 (ko) * 2015-09-30 2017-02-09 인하대학교 산학협력단 스테레오 카메라를 이용한 sift 특징점 로컬 영역의 깊이 변화 측정 방법
KR101705330B1 (ko) * 2015-09-30 2017-02-10 인하대학교 산학협력단 스테레오 카메라 이미지에서 물체의 기울어진 각도를 찾기 위한 특징점 선택 방법
CN106610553B (zh) * 2015-10-22 2019-06-18 深圳超多维科技有限公司 一种自动对焦的方法及装置
KR102636272B1 (ko) 2016-07-26 2024-02-14 삼성전자주식회사 영상 촬상 장치 및 이를 포함하는 전자 시스템
WO2018147059A1 (ja) * 2017-02-07 2018-08-16 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
US20200077073A1 (en) * 2018-08-28 2020-03-05 Qualcomm Incorporated Real-time stereo calibration by direct disparity minimization and keypoint accumulation
US10410368B1 (en) * 2018-09-27 2019-09-10 Qualcomm Incorporated Hybrid depth processing
CN110008802B (zh) 2018-12-04 2023-08-29 创新先进技术有限公司 从多个脸部中选择目标脸部及脸部识别比对方法、装置
KR20200097865A (ko) * 2019-02-08 2020-08-20 삼성전자주식회사 깊이 측정을 위한 이미지 처리 시스템 및 이의 동작 방법
US11178382B1 (en) * 2020-10-27 2021-11-16 Shoppertrak Rct Corporation Auto-calibration of stereoscopic imaging device
US11115512B1 (en) 2020-12-12 2021-09-07 John G. Posa Smartphone cases with integrated electronic binoculars
AU2022249956A1 (en) * 2021-03-29 2023-11-02 Alcon Inc. Stereoscopic imaging platform with continuous autofocusing mode

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0610605A1 (en) * 1993-02-11 1994-08-17 Agfa-Gevaert N.V. Method of recognising an irradiation field
JPH0847001A (ja) * 1994-08-01 1996-02-16 Minolta Co Ltd 立体テレビカメラ
JPH08242453A (ja) * 1994-12-29 1996-09-17 Daewoo Electron Co Ltd 動きベクトル推定装置
JP2010041381A (ja) * 2008-08-05 2010-02-18 Nikon Corp 電子カメラ、ステレオ画像生成方法およびステレオ画像生成システム
JP2010067014A (ja) * 2008-09-11 2010-03-25 Ricoh Co Ltd 画像分類装置及び画像分類方法

Family Cites Families (233)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4114171A (en) 1976-04-06 1978-09-12 Vivitar Corporation Reflex camera with internal zoom lens
US4437745A (en) 1982-09-30 1984-03-20 Stephen Hajnal Three dimensional camera system
GB8430980D0 (en) 1984-12-07 1985-01-16 Robinson M Generation of apparently three-dimensional images
US4639586A (en) 1985-02-06 1987-01-27 The United States Of America As Represented By The Secretary Of The Air Force Optically phased laser transmitter
US4740780A (en) 1985-06-24 1988-04-26 Gec Avionics, Inc. Head-up display for automobile
US5012273B1 (en) 1986-05-12 1996-10-01 Asahi Optical Co Ltd Lens shutter type of camera including zoom lens
US6031892A (en) 1989-12-05 2000-02-29 University Of Massachusetts Medical Center System for quantitative radiographic imaging
US5194959A (en) 1989-12-21 1993-03-16 Ricoh Company, Ltd. and Nippon Telegraph and Telephone Corporation Image forming apparatus for forming image corresponding to subject, by dividing optical image corresponding to the subject into plural adjacent optical image parts
US5016109A (en) 1990-07-02 1991-05-14 Bell South Corporation Apparatus and method for segmenting a field of view into contiguous, non-overlapping, vertical and horizontal sub-fields
US5063441A (en) 1990-10-11 1991-11-05 Stereographics Corporation Stereoscopic video cameras with image sensors having variable effective position
US5142357A (en) 1990-10-11 1992-08-25 Stereographics Corp. Stereoscopic video camera with image sensors having variable effective position
US5207000A (en) 1991-06-14 1993-05-04 Industrial Technology Research Institute Method and apparatus useful for determining an angle between a virtual optical axis and a planar surface
US5231461A (en) 1991-12-09 1993-07-27 Hughes Danbury Optical Systems, Inc. Solar monochromator for filter calibration
US5926411A (en) 1991-12-30 1999-07-20 Ioptics Incorporated Optical random access memory
US5686960A (en) 1992-01-14 1997-11-11 Michael Sussman Image input device having optical deflection elements for capturing multiple sub-images
DE4212271C1 (ja) 1992-04-11 1993-07-08 Deutsche Forschungsanstalt Fuer Luft- Und Raumfahrt E.V., 5300 Bonn, De
US5243413A (en) 1992-09-02 1993-09-07 At&T Bell Laboratories Color parallax-free camera and display
US5313542A (en) 1992-11-30 1994-05-17 Breault Research Organization, Inc. Apparatus and method of rapidly measuring hemispherical scattered or radiated light
US5586063A (en) 1993-09-01 1996-12-17 Hardin; Larry C. Optical range and speed detection system
US5614941A (en) 1993-11-24 1997-03-25 Hines; Stephen P. Multi-image autostereoscopic imaging system
GB2284273B (en) 1993-11-29 1997-01-08 Hadland Photonics Limited Electronic high speed camera incorporating a beam splitter
JPH089424A (ja) 1994-06-20 1996-01-12 Sanyo Electric Co Ltd 立体画像撮像制御装置
JP3458486B2 (ja) 1994-10-25 2003-10-20 松下電器産業株式会社 全方位撮影装置及び全方位画像合成装置
JPH08194274A (ja) * 1995-01-13 1996-07-30 Olympus Optical Co Ltd 立体撮像装置
US5606627A (en) 1995-01-24 1997-02-25 Eotek Inc. Automated analytic stereo comparator
US5745305A (en) 1995-04-28 1998-04-28 Lucent Technologies Inc. Panoramic viewing apparatus
US5990934A (en) 1995-04-28 1999-11-23 Lucent Technologies, Inc. Method and system for panoramic viewing
US5793527A (en) 1995-06-30 1998-08-11 Lucent Technologies Inc. High resolution viewing system
US5539483A (en) 1995-06-30 1996-07-23 At&T Corp. Panoramic projection apparatus
US5903306A (en) 1995-08-16 1999-05-11 Westinghouse Savannah River Company Constrained space camera assembly
US6115176A (en) 1995-11-30 2000-09-05 Lucent Technologies Inc. Spherical viewing/projection apparatus
US6111702A (en) 1995-11-30 2000-08-29 Lucent Technologies Inc. Panoramic viewing system with offset virtual optical centers
US5640222A (en) 1996-03-15 1997-06-17 Paul; Eddie Method and apparatus for producing stereoscopic images
US6850279B1 (en) 1996-06-18 2005-02-01 Sony Corporation Optical image recording system, and associated processing system
US5721585A (en) 1996-08-08 1998-02-24 Keast; Jeffrey D. Digital video panoramic image capture and display system
AU6515798A (en) 1997-04-16 1998-11-11 Isight Ltd. Video teleconferencing
US7028899B2 (en) 1999-06-07 2006-04-18 Metrologic Instruments, Inc. Method of speckle-noise pattern reduction and apparatus therefore based on reducing the temporal-coherence of the planar laser illumination beam before it illuminates the target object by applying temporal phase modulation techniques during the transmission of the plib towards the target
DE19903807A1 (de) 1998-05-05 1999-11-11 Zeiss Carl Fa Beleuchtungssystem insbesondere für die EUV-Lithographie
US6195204B1 (en) 1998-08-28 2001-02-27 Lucent Technologies Inc. Compact high resolution panoramic viewing system
US6128143A (en) 1998-08-28 2000-10-03 Lucent Technologies Inc. Panoramic viewing system with support stand
US6141145A (en) 1998-08-28 2000-10-31 Lucent Technologies Stereo panoramic viewing system
US6144501A (en) 1998-08-28 2000-11-07 Lucent Technologies Inc. Split mirrored panoramic image display
US6285365B1 (en) 1998-08-28 2001-09-04 Fullview, Inc. Icon referenced panoramic image display
JP2000102040A (ja) * 1998-09-28 2000-04-07 Olympus Optical Co Ltd 電子ステレオカメラ
US7271803B2 (en) 1999-01-08 2007-09-18 Ricoh Company, Ltd. Method and system for simulating stereographic vision
US6611289B1 (en) 1999-01-15 2003-08-26 Yanbin Yu Digital cameras using multiple sensors with multiple lenses
US7015954B1 (en) 1999-08-09 2006-03-21 Fuji Xerox Co., Ltd. Automatic video system using multiple cameras
GB2354389A (en) 1999-09-15 2001-03-21 Sharp Kk Stereo images with comfortable perceived depth
GB2354390A (en) 1999-09-16 2001-03-21 Ibm Wide-angle image capture apparatus
US6650774B1 (en) 1999-10-01 2003-11-18 Microsoft Corporation Locally adapted histogram equalization
JP2001194114A (ja) 2000-01-14 2001-07-19 Sony Corp 画像処理装置および画像処理方法、並びにプログラム提供媒体
JP2001209037A (ja) 2000-01-26 2001-08-03 Olympus Optical Co Ltd 可変ホログラム素子及びそれらを用いた光学装置
US6823021B1 (en) 2000-10-27 2004-11-23 Greenwich Technologies Associates Method and apparatus for space division multiple access receiver
US6701081B1 (en) 2000-06-06 2004-03-02 Air Controls, Inc. Dual camera mount for stereo imaging
US6768509B1 (en) 2000-06-12 2004-07-27 Intel Corporation Method and apparatus for determining points of interest on an image of a camera calibration object
WO2002027372A2 (en) 2000-07-14 2002-04-04 Applied Wdm, Inc. Optical waveguide transmission devices
JP2002040584A (ja) 2000-07-28 2002-02-06 Hamamatsu Photonics Kk 高速撮像カメラ
IL139995A (en) 2000-11-29 2007-07-24 Rvc Llc System and method for spherical stereoscopic photographing
EP1231780A3 (en) 2001-02-07 2004-01-14 Sony Corporation Image pickup apparatus
JP2002277736A (ja) 2001-03-21 2002-09-25 Olympus Optical Co Ltd 撮像装置
US6628897B2 (en) 2001-06-20 2003-09-30 Sony Corporation Camera system
US20030038814A1 (en) 2001-08-27 2003-02-27 Blume Leo R. Virtual camera system for environment capture
US7116351B2 (en) 2001-10-29 2006-10-03 Sony Corporation Imaging device
JP4198449B2 (ja) * 2002-02-22 2008-12-17 富士フイルム株式会社 デジタルカメラ
JP2003260025A (ja) 2002-03-08 2003-09-16 Olympus Optical Co Ltd カプセル型内視鏡
US6768598B2 (en) 2002-04-02 2004-07-27 Sony Corporation Image pickup system
US6861633B2 (en) 2002-06-20 2005-03-01 The Aerospace Corporation Microelectromechanical system optical sensor providing bit image data of a viewed image
US7298392B2 (en) 2003-06-26 2007-11-20 Microsoft Corp. Omni-directional camera design for video conferencing
US7209161B2 (en) 2002-07-15 2007-04-24 The Boeing Company Method and apparatus for aligning a pair of digital cameras forming a three dimensional image to compensate for a physical misalignment of cameras
JP2004072349A (ja) 2002-08-05 2004-03-04 Canon Inc 撮像装置、及びその制御方法
US7893957B2 (en) 2002-08-28 2011-02-22 Visual Intelligence, LP Retinal array compound camera system
US7084904B2 (en) 2002-09-30 2006-08-01 Microsoft Corporation Foveated wide-angle imaging system and method for capturing and viewing wide-angle images in real time
AU2003302166A1 (en) 2003-01-02 2004-07-29 Covi Technologies, Inc. Optical block assembly
IL155525A0 (en) 2003-04-21 2009-02-11 Yaron Mayer System and method for 3d photography and/or analysis of 3d images and/or display of 3d images
JP3709879B2 (ja) 2003-05-01 2005-10-26 日産自動車株式会社 ステレオ画像処理装置
US7463280B2 (en) 2003-06-03 2008-12-09 Steuart Iii Leonard P Digital 3D/360 degree camera system
US6809887B1 (en) 2003-06-13 2004-10-26 Vision Technologies, Inc Apparatus and method for acquiring uniform-resolution panoramic images
US7495694B2 (en) 2004-07-28 2009-02-24 Microsoft Corp. Omni-directional camera with calibration and up look angle improvements
US7336299B2 (en) 2003-07-03 2008-02-26 Physical Optics Corporation Panoramic video system with real-time distortion-free imaging
KR100541028B1 (ko) 2003-07-21 2006-01-11 주식회사 옵토메카 이미지 센서 및 그 제조 방법
US20050057659A1 (en) 2003-09-16 2005-03-17 Takami Hasegawa Camera image shake correcting device
US7028546B2 (en) 2003-10-21 2006-04-18 Instrumented Sensor Technology, Inc. Data recorder
US20050111106A1 (en) 2003-10-31 2005-05-26 Kazuhiro Matsumoto Optical element assembly formed of multiple optical elements such as prisms, and image pickup apparatus using the same in image pickup function section
WO2005081020A1 (ja) 2004-02-19 2005-09-01 Canon Kabushiki Kaisha 光学機器およびビームスプリッター
US20050185711A1 (en) 2004-02-20 2005-08-25 Hanspeter Pfister 3D television system and method
GB0406730D0 (en) 2004-03-25 2004-04-28 1 Ltd Focussing method
US7593057B2 (en) 2004-07-28 2009-09-22 Microsoft Corp. Multi-view integrated camera system with housing
WO2006017771A1 (en) * 2004-08-06 2006-02-16 University Of Washington Variable fixation viewing distance scanned light displays
US7039292B1 (en) 2004-09-09 2006-05-02 Rockwell Collins, Inc. Optical system for vehicle flight control
JP3791847B1 (ja) 2005-08-10 2006-06-28 京セラ株式会社 カメラモジュールおよび該カメラモジュールを搭載した情報端末
WO2006052024A1 (ja) 2004-11-15 2006-05-18 Hitachi, Ltd. ステレオカメラ
US7372996B2 (en) 2004-12-27 2008-05-13 Trw Automotive U.S. Llc Method and apparatus for determining the position of a vehicle seat
WO2006075528A1 (ja) 2005-01-13 2006-07-20 National University Corporation NARA Institute of Science and Technology 3次元オブジェクト計測装置
US7512262B2 (en) 2005-02-25 2009-03-31 Microsoft Corporation Stereo-based image processing
US20060215054A1 (en) 2005-03-23 2006-09-28 Eastman Kodak Company Wide angle camera with prism array
JP4177826B2 (ja) 2005-03-23 2008-11-05 株式会社東芝 画像処理装置および画像処理方法
JP2006279538A (ja) 2005-03-29 2006-10-12 Sony Corp 撮像装置
US20060238441A1 (en) * 2005-04-25 2006-10-26 The Boeing Company Method and apparatus for displaying a stereoscopic image
WO2007014293A1 (en) 2005-07-25 2007-02-01 The Regents Of The University Of California Digital imaging system and method to produce mosaic images
JP5364965B2 (ja) 2005-07-26 2013-12-11 コニカミノルタ株式会社 撮像光学系、撮像レンズ装置及びデジタル機器
JP2007081473A (ja) 2005-09-09 2007-03-29 Eastman Kodak Co 複数光学系を有する撮像装置
CN101025475A (zh) 2005-10-17 2007-08-29 威盛电子股份有限公司 立体三维影像显示系统与方法
US20070164202A1 (en) 2005-11-16 2007-07-19 Wurz David A Large depth of field line scan camera
JP4979928B2 (ja) 2005-11-28 2012-07-18 株式会社トプコン 三次元形状演算装置及び三次元形状演算方法
US7215479B1 (en) 2006-02-10 2007-05-08 Micron Technology, Inc. Integrated lens system for image sensor and method for manufacturing the same
GB2435360B (en) * 2006-02-16 2009-09-23 Imagination Tech Ltd Method and apparatus for determining motion between video images
JP4844177B2 (ja) 2006-03-07 2011-12-28 株式会社ニコン ブレ補正装置及びカメラ
JP2007274542A (ja) 2006-03-31 2007-10-18 Sony Corp 撮像装置および携帯電話機
CN101055342A (zh) 2006-04-12 2007-10-17 鸿富锦精密工业(深圳)有限公司 自动对焦镜头模组
US8433157B2 (en) 2006-05-04 2013-04-30 Thomson Licensing System and method for three-dimensional object reconstruction from two-dimensional images
WO2007129147A1 (en) 2006-05-05 2007-11-15 Nokia Corporation Optical image recording device with small height and high resolution
JP4972779B2 (ja) 2006-05-30 2012-07-11 コニカミノルタアドバンストレイヤー株式会社 光学ユニットおよび撮像装置
JP5067021B2 (ja) 2006-06-01 2012-11-07 富士ゼロックス株式会社 画像形成装置、画像形成装置の組立方法及び解体方法並びに画像形成装置に用いられる仮止め部材
JP4851239B2 (ja) 2006-06-05 2012-01-11 株式会社トプコン 画像処理装置及びその処理方法
JP2008048293A (ja) 2006-08-18 2008-02-28 Kyocera Corp 撮像装置、およびその製造方法
DE102006044786A1 (de) 2006-09-14 2008-03-27 Schefenacker Vision Systems Germany Gmbh Kamerasystem, Verfahren zum Betreiben eines Kamerasystems und Sensoreinrichtung eines Kamerasystems
US7817354B2 (en) 2006-10-25 2010-10-19 Capsovision Inc. Panoramic imaging system
JP5040493B2 (ja) 2006-12-04 2012-10-03 ソニー株式会社 撮像装置及び撮像方法
JP4917060B2 (ja) 2007-02-26 2012-04-18 Hoya株式会社 撮像ユニット及び携帯用電子機器
US7683962B2 (en) 2007-03-09 2010-03-23 Eastman Kodak Company Camera using multiple lenses and image sensors in a rangefinder configuration to provide a range map
US8356035B1 (en) * 2007-04-10 2013-01-15 Google Inc. Association of terms with images using image similarity
JP4582423B2 (ja) 2007-04-20 2010-11-17 富士フイルム株式会社 撮像装置、画像処理装置、撮像方法、及び画像処理方法
JP5013078B2 (ja) 2007-04-24 2012-08-29 コニカミノルタアドバンストレイヤー株式会社 レンズ鏡胴及び撮像装置
US20080290435A1 (en) 2007-05-21 2008-11-27 Micron Technology, Inc. Wafer level lens arrays for image sensor packages and the like, image sensor packages, and related methods
JP2008294819A (ja) 2007-05-25 2008-12-04 Sony Corp 撮像装置
US20090005112A1 (en) 2007-06-29 2009-01-01 Samsung Electronics Co., Ltd. Optical imaging system configurations for handheld devices
US20090003646A1 (en) * 2007-06-29 2009-01-01 The Hong Kong University Of Science And Technology Lossless visible watermarking
CN101743740B (zh) 2007-07-13 2012-04-04 三菱电机株式会社 图像读取装置
JP4900118B2 (ja) 2007-07-31 2012-03-21 コニカミノルタオプト株式会社 カメラモジュールおよび電子機器
TWI383666B (zh) 2007-08-21 2013-01-21 Sony Taiwan Ltd 多重鏡頭相機系統之先進式動態接圖方法
JP5000428B2 (ja) 2007-08-22 2012-08-15 Hoya株式会社 撮像装置
KR20090032261A (ko) * 2007-09-27 2009-04-01 삼성전자주식회사 움직임 추정에 기초하여 움직임 보상을 수행하는 영상 처리장치 및 그 방법
JP5152483B2 (ja) 2007-10-05 2013-02-27 ソニー株式会社 撮像装置
US8282222B2 (en) 2007-10-10 2012-10-09 Gerard Dirk Smits Image projector with reflected light tracking
EP2201784B1 (en) 2007-10-11 2012-12-12 Koninklijke Philips Electronics N.V. Method and device for processing a depth-map
WO2009057436A1 (ja) 2007-11-01 2009-05-07 Konica Minolta Holdings, Inc. 撮像装置
KR100927347B1 (ko) 2007-11-13 2009-11-24 파워옵틱스 주식회사 줌렌즈 광학계
JP4831514B2 (ja) * 2007-11-13 2011-12-07 独立行政法人情報通信研究機構 設定パラメータ最適化装置およびそのプログラム
US8791984B2 (en) 2007-11-16 2014-07-29 Scallop Imaging, Llc Digital security camera
CN100465699C (zh) 2007-12-05 2009-03-04 浙江大学 利用棱镜分光渐晕补偿实现多ccd无缝拼接的光电系统
KR101349589B1 (ko) 2007-12-13 2014-01-10 엘지이노텍 주식회사 카메라 모듈
US8300086B2 (en) 2007-12-20 2012-10-30 Nokia Corporation Image processing for supporting a stereoscopic presentation
US20090185067A1 (en) 2007-12-21 2009-07-23 Stereo Display, Inc. Compact automatic focusing camera
EP2227711A4 (en) 2008-01-02 2014-01-22 Univ California TELEMIC ROSCOPY DEVICE WITH HIGH NUMERICAL APERTURE
WO2009111642A1 (en) 2008-03-05 2009-09-11 Contrast Optical Design & Engineering, Inc. Multiple image camera and lens system
CN101981915B (zh) 2008-03-26 2014-03-05 柯尼卡美能达精密光学株式会社 摄像装置
WO2009120928A2 (en) 2008-03-28 2009-10-01 The Trustees Of Columbia University In The City Of New York Generalized assorted pixel camera systems and methods
CN101571666A (zh) 2008-04-28 2009-11-04 鸿富锦精密工业(深圳)有限公司 成像设备
US8280194B2 (en) 2008-04-29 2012-10-02 Sony Corporation Reduced hardware implementation for a two-picture depth map algorithm
US9001187B2 (en) 2009-05-11 2015-04-07 CapsoVision, Inc. Capsule imaging system having a folded optical axis
US9171221B2 (en) 2010-07-18 2015-10-27 Spatial Cam Llc Camera to track an object
JP4435867B2 (ja) * 2008-06-02 2010-03-24 パナソニック株式会社 法線情報を生成する画像処理装置、方法、コンピュータプログラム、および、視点変換画像生成装置
JP5223486B2 (ja) 2008-06-18 2013-06-26 ソニー株式会社 電子双眼鏡
JP5096496B2 (ja) 2008-07-24 2012-12-12 パナソニック株式会社 カメラ駆動装置
KR100942925B1 (ko) 2008-08-11 2010-02-22 한국전자통신연구원 스테레오 비전 시스템 및 그 제어방법
EP2316054A1 (en) 2008-08-14 2011-05-04 Remotereality Corporation Three-mirror panoramic camera
TWI419551B (zh) 2008-08-22 2013-12-11 固態全景影像擷取裝置
WO2010035223A1 (en) 2008-09-25 2010-04-01 Koninklijke Philips Electronics N.V. Three dimensional image data processing
US8267601B2 (en) 2008-11-04 2012-09-18 James Cameron Platform for stereoscopy for hand-held film/video camera stabilizers
JP4852591B2 (ja) 2008-11-27 2012-01-11 富士フイルム株式会社 立体画像処理装置、方法及び記録媒体並びに立体撮像装置
CN101770059B (zh) 2008-12-27 2012-06-20 鸿富锦精密工业(深圳)有限公司 相机模组
US9395617B2 (en) 2009-01-05 2016-07-19 Applied Quantum Technologies, Inc. Panoramic multi-scale imager and method therefor
US8326036B2 (en) * 2009-02-20 2012-12-04 Qylur Security Systems, Inc. Automated image separation method
GB0903689D0 (en) 2009-03-03 2009-04-15 Sigmavision Ltd Vehicle tyre measurement
JP5316118B2 (ja) 2009-03-12 2013-10-16 オムロン株式会社 3次元視覚センサ
US20100265313A1 (en) 2009-04-17 2010-10-21 Sony Corporation In-camera generation of high quality composite panoramic images
US20100278423A1 (en) 2009-04-30 2010-11-04 Yuji Itoh Methods and systems for contrast enhancement
US8503778B2 (en) 2009-05-14 2013-08-06 National University Of Singapore Enhancing photograph visual quality using texture and contrast data from near infra-red images
US8194170B2 (en) 2009-06-02 2012-06-05 Algonquin College Axicon lens array
US9124874B2 (en) 2009-06-05 2015-09-01 Qualcomm Incorporated Encoding of three-dimensional conversion information with two-dimensional video sequence
US8405750B2 (en) * 2009-06-08 2013-03-26 Aptina Imaging Corporation Image sensors and image reconstruction methods for capturing high dynamic range images
CN101581828B (zh) 2009-06-09 2011-06-22 苏州大学 环形孔径超薄光学成像系统
US9479768B2 (en) 2009-06-09 2016-10-25 Bartholomew Garibaldi Yukich Systems and methods for creating three-dimensional image media
JP5293463B2 (ja) 2009-07-09 2013-09-18 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
US8228417B1 (en) * 2009-07-15 2012-07-24 Adobe Systems Incorporated Focused plenoptic camera employing different apertures or filtering at different microlenses
JP5450200B2 (ja) * 2009-07-17 2014-03-26 富士フイルム株式会社 撮像装置、方法およびプログラム
US8294073B1 (en) 2009-10-01 2012-10-23 Raytheon Company High angular rate imaging system and related techniques
US9063345B2 (en) 2009-10-19 2015-06-23 Pixar Super light-field lens with doublet lenslet array element
JP5539818B2 (ja) 2009-10-20 2014-07-02 富士フイルム株式会社 撮像レンズおよび撮像装置
US8325187B2 (en) 2009-10-22 2012-12-04 Samsung Electronics Co., Ltd. Method and device for real time 3D navigation in panoramic images and cylindrical spaces
US8457398B2 (en) 2009-10-27 2013-06-04 Himax Media Solutions, Inc. Image enhancement method and apparatuses utilizing the same
WO2011066275A2 (en) 2009-11-25 2011-06-03 Massachusetts Institute Of Technology Actively addressable aperture light field camera
US8400555B1 (en) 2009-12-01 2013-03-19 Adobe Systems Incorporated Focused plenoptic camera employing microlenses with different focal lengths
US9030530B2 (en) * 2009-12-15 2015-05-12 Thomson Licensing Stereo-image quality and disparity/depth indications
US9128281B2 (en) 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
US20110213664A1 (en) 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
JP5683025B2 (ja) 2010-04-19 2015-03-11 パナソニックIpマネジメント株式会社 立体画像撮影装置および立体画像撮影方法
JP5138734B2 (ja) 2010-06-15 2013-02-06 シャープ株式会社 撮像レンズ、および撮像モジュール
TWI409577B (zh) 2010-08-20 2013-09-21 Primax Electronics Ltd 光學影像系統
US20120056987A1 (en) 2010-09-03 2012-03-08 Luke Fedoroff 3d camera system and method
WO2012039043A1 (ja) 2010-09-22 2012-03-29 富士通株式会社 ステレオ画像生成装置、ステレオ画像生成方法及びステレオ画像生成用コンピュータプログラム
JP6042814B2 (ja) 2010-10-01 2016-12-14 コンテックス・エー/エス イメージセンサの信号輝度マッチング法
SG190730A1 (en) 2010-12-09 2013-07-31 Univ Nanyang Tech Method and an apparatus for determining vein patterns from a colour image
US9172856B2 (en) 2011-03-29 2015-10-27 Microsoft Technology Licensing, Llc Folded imaging path camera
EP2695385B8 (en) 2011-04-08 2016-03-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Capturing panoramic or semi-panoramic 3d scenes
US20120293607A1 (en) 2011-05-17 2012-11-22 Apple Inc. Panorama Processing
CN103597810B (zh) 2011-05-27 2017-02-15 诺基亚技术有限公司 图像拼接
US9635274B2 (en) 2011-06-15 2017-04-25 Microsoft Technology Licensing, Llc High resolution multispectral image capture
TWI507807B (zh) 2011-06-24 2015-11-11 Mstar Semiconductor Inc 自動對焦方法與裝置
US20130265459A1 (en) 2011-06-28 2013-10-10 Pelican Imaging Corporation Optical arrangements for use with an array camera
US8896890B2 (en) 2011-06-30 2014-11-25 Lexmark International, Inc. Image capture system having a folded optical path
US8988564B2 (en) 2011-09-09 2015-03-24 Apple Inc. Digital camera with light splitter
US9438889B2 (en) 2011-09-21 2016-09-06 Qualcomm Incorporated System and method for improving methods of manufacturing stereoscopic image sensors
US9495597B2 (en) 2011-10-20 2016-11-15 Monsanto Technology Llc Plant stand counter
US9692991B2 (en) 2011-11-04 2017-06-27 Qualcomm Incorporated Multispectral imaging system
US8582220B2 (en) 2011-12-05 2013-11-12 Himax Technologies Limited Lens module
US9210405B2 (en) 2012-03-22 2015-12-08 Qualcomm Technologies, Inc. System and method for real time 2D to 3D conversion of video in a digital camera
US20130260823A1 (en) 2012-03-31 2013-10-03 Ashutosh Y. Shukla Compact Portable Electronic Device Having Augmented Back Volume for Speaker
NL2008639C2 (en) 2012-04-13 2013-10-16 Cyclomedia Technology B V Device, system and vehicle for recording panoramic images, and a device and method for panoramic projection thereof.
JP2013238848A (ja) 2012-04-20 2013-11-28 Hoya Corp 撮像装置
EP2677733A3 (en) 2012-06-18 2015-12-09 Sony Mobile Communications AB Array camera imaging system and method
EP2677734A3 (en) 2012-06-18 2016-01-13 Sony Mobile Communications AB Array camera imaging system and method
WO2014012603A1 (en) 2012-07-17 2014-01-23 Heptagon Micro Optics Pte. Ltd. Optical devices, in particular computational cameras, and methods for manufacturing the same
CN105787908B (zh) 2012-08-08 2019-05-14 杜比实验室特许公司 用于高动态范围图像的图像处理方法、装置及存储介质
US9398264B2 (en) 2012-10-19 2016-07-19 Qualcomm Incorporated Multi-camera system using folded optics
JP2014112302A (ja) 2012-12-05 2014-06-19 Ricoh Co Ltd 所定領域管理システム、通信方法、及びプログラム
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US9270876B2 (en) 2013-01-05 2016-02-23 The Lightco Inc. Methods and apparatus for using multiple optical chains in parallel with multiple different exposure times
US9171355B2 (en) 2013-04-12 2015-10-27 Qualcomm Incorporated Near infrared guided image denoising
US10178373B2 (en) 2013-08-16 2019-01-08 Qualcomm Incorporated Stereo yaw correction using autofocus feedback
US9223118B2 (en) 2013-10-31 2015-12-29 Apple Inc. Small form factor telephoto camera
US9557627B2 (en) 2014-03-07 2017-01-31 Apple Inc. Folded camera lens systems
US9316810B2 (en) 2014-03-07 2016-04-19 Apple Inc. Folded telephoto camera lens system
US9374516B2 (en) 2014-04-04 2016-06-21 Qualcomm Incorporated Auto-focus in low-profile folded optics multi-camera system
US9383550B2 (en) 2014-04-04 2016-07-05 Qualcomm Incorporated Auto-focus in low-profile folded optics multi-camera system
US10013764B2 (en) 2014-06-19 2018-07-03 Qualcomm Incorporated Local adaptive histogram equalization
US9549107B2 (en) 2014-06-20 2017-01-17 Qualcomm Incorporated Autofocus for folded optic array cameras
US9294672B2 (en) 2014-06-20 2016-03-22 Qualcomm Incorporated Multi-camera system using folded optics free from parallax and tilt artifacts
US9819863B2 (en) 2014-06-20 2017-11-14 Qualcomm Incorporated Wide field of view array camera for hemispheric and spherical imaging
US9386222B2 (en) 2014-06-20 2016-07-05 Qualcomm Incorporated Multi-camera system using folded optics free from parallax artifacts
US20150373269A1 (en) 2014-06-20 2015-12-24 Qualcomm Incorporated Parallax free thin multi-camera system capable of capturing full wide field of view images
US9541740B2 (en) 2014-06-20 2017-01-10 Qualcomm Incorporated Folded optic array camera using refractive prisms
US9832381B2 (en) 2014-10-31 2017-11-28 Qualcomm Incorporated Optical image stabilization for thin cameras

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0610605A1 (en) * 1993-02-11 1994-08-17 Agfa-Gevaert N.V. Method of recognising an irradiation field
JPH0847001A (ja) * 1994-08-01 1996-02-16 Minolta Co Ltd 立体テレビカメラ
JPH08242453A (ja) * 1994-12-29 1996-09-17 Daewoo Electron Co Ltd 動きベクトル推定装置
JP2010041381A (ja) * 2008-08-05 2010-02-18 Nikon Corp 電子カメラ、ステレオ画像生成方法およびステレオ画像生成システム
JP2010067014A (ja) * 2008-09-11 2010-03-25 Ricoh Co Ltd 画像分類装置及び画像分類方法

Also Published As

Publication number Publication date
CN103053154A (zh) 2013-04-17
KR101862889B1 (ko) 2018-05-30
WO2012021541A1 (en) 2012-02-16
US9485495B2 (en) 2016-11-01
EP3582488A1 (en) 2019-12-18
JP6271609B2 (ja) 2018-01-31
CN103053154B (zh) 2017-03-29
JP6253981B2 (ja) 2017-12-27
KR20140000195A (ko) 2014-01-02
US20120033051A1 (en) 2012-02-09
JP2013539273A (ja) 2013-10-17
EP2604032A1 (en) 2013-06-19

Similar Documents

Publication Publication Date Title
JP6271609B2 (ja) 立体カメラのためのオートフォーカス
US11562498B2 (en) Systems and methods for hybrid depth regularization
JP5954668B2 (ja) 画像処理装置、撮像装置および画像処理方法
KR101419979B1 (ko) 2d 이미지 데이터를 스테레오스코픽 이미지 데이터로 변환하기 위한 방법 및 시스템
US8755630B2 (en) Object pose recognition apparatus and object pose recognition method using the same
US8326025B2 (en) Method for determining a depth map from images, device for determining a depth map
US9338437B2 (en) Apparatus and method for reconstructing high density three-dimensional image
CN104685513A (zh) 根据使用阵列源捕捉的低分辨率图像的基于特征的高分辨率运动估计
CN107025660B (zh) 一种确定双目动态视觉传感器图像视差的方法和装置
US9014463B2 (en) System for real-time stereo matching
US11170202B2 (en) Apparatus and method for performing 3D estimation based on locally determined 3D information hypotheses
WO2015014111A1 (zh) 一种光流跟踪方法和装置
WO2003036992A1 (en) Method and apparatus for image matching
WO2014180255A1 (zh) 一种数据处理方法、装置、计算机存储介质及用户终端
CN113822942B (zh) 一种基于二维码的单目摄像头测量物体尺寸的方法
CN110021055A (zh) 产生视差图的方法及其图像处理装置与系统
JP3988574B2 (ja) 画像処理装置
TWI571099B (zh) 深度估測裝置及方法
JP6395429B2 (ja) 画像処理装置、その制御方法及び記憶媒体
Sato et al. Efficient hundreds-baseline stereo by counting interest points for moving omni-directional multi-camera system
CN108062741B (zh) 双目图像处理方法、成像装置和电子设备
US20220230342A1 (en) Information processing apparatus that estimates object depth, method therefor, and storage medium holding program therefor
JP2023112222A (ja) 画像処理装置、画像処理方法、およびプログラム
KR20220075794A (ko) 3차원 지도의 생성 방법
JP2020010216A (ja) 画像処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170607

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171227

R150 Certificate of patent or registration of utility model

Ref document number: 6271609

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250