JP6042434B2 - 立体画像ペアを獲得するためのシステムおよび方法 - Google Patents

立体画像ペアを獲得するためのシステムおよび方法 Download PDF

Info

Publication number
JP6042434B2
JP6042434B2 JP2014525088A JP2014525088A JP6042434B2 JP 6042434 B2 JP6042434 B2 JP 6042434B2 JP 2014525088 A JP2014525088 A JP 2014525088A JP 2014525088 A JP2014525088 A JP 2014525088A JP 6042434 B2 JP6042434 B2 JP 6042434B2
Authority
JP
Japan
Prior art keywords
image
displaying
image sensor
horizontal
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014525088A
Other languages
English (en)
Other versions
JP2014527756A (ja
Inventor
ハング、スゼポ・ロバート
ベラルド、ルーベン・エム.
オスボーン、トーマス・ベスレイ
リアン、リアン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2014527756A publication Critical patent/JP2014527756A/ja
Application granted granted Critical
Publication of JP6042434B2 publication Critical patent/JP6042434B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/221Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20068Projection on vertical or horizontal image axis

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Description

[0001] 本発明の一態様は、画像デバイスに関わり、特に、画像デバイスにおける単一の画像センサを使用した立体画像の獲得(capture)のための方法、装置、およびシステムに関わる。
[0002] 過去長年にわたり、デジタル画像機能が、デジタルカメラおよび携帯電話を含む広範囲のデバイスに内蔵されている。最近では、これらデバイスによって立体画像を獲得する能力が、技術的に可能となっている。デバイスの製造業者は、複数のデジタル画像センサを内蔵しているデバイスを導入することによって、対応している。モバイル・ワイヤレス通信装置、携帯端末(PDAs:personal digital assistants)、個人用音楽システム、デジタルカメラ、デジタル記録デバイス、ビデオ会議システムなどを含む、広範囲の電子デバイスは、これらのユーザーに種々の機能および特徴を提供するために、複数の画像センサを使用する。これらは、3D写真およびムービーのような立体(3D)画像アプリケーションだけでなく、さらなるハイ・ダイナミック・レンジ画像(higher dynamic range imaging)およびパノラマ画像を含む。
[0003] しかしながら、第2のデジタル画像センサの追加は、いくつかの欠点を伴う。例えば、第2の画像センサおよびこれに関連した電子機器の追加のコストが、少なくともいくつかの市場区分で、ひどく高くなる可能性がある。さらに、第2の画像センサは、いくつかの方法で、前記デバイスの有用性に影響を与える。例えば、第2の画像センサの収容は、単一のセンサを有するデバイスよりいくらか大きいデバイスを必要とする。さらに、前記デバイスのパワー能力は、同時に両方の画像センサに動力を供給することをサポートするための大きさでなければならない。このことは、より大きく且つより高価なパワー処理回路を必要とし得る。前記デバイスのバッテリー寿命が、同様に影響され得、ことによると、より大きなバッテリーを必要とする。
[0004] いくつかの実施形態は、立体画像を獲得する方法を含み得る。前記方法は、画像センサによる第1の画像の獲得を含み得る。前記方法は、前記画像センサによる第2の画像の獲得と、前記第1の画像および前記第2の画像間の垂直視差(vertical disparity)の決定をさらに含み得る。前記方法は、前記第1の画像および前記第2の画像間の水平視差(horizontal disparity)を決定することと、前記第1の画像および前記第2の画像間の幾何学的歪み(geometric distortion)を決定することと、および、少なくとも1つの補正された画像を作成するために補正を適用することを、さらに含み得る。他の実施形態では、収束点が、深さの範囲と深さのヒストグラムとに基づいて、決定される。別の実施形態では、前記垂直視差は、行合計ベクトル(row sum vector)の相互相関によって、決定される。いくつかの実施形態は、前記補正された画像に基づいた立体画像ペアの生成をさらに含む。他の実施形態では、上記のエレメントが、繰り返し実行され得る。
[0005] 他の実施形態は、立体画像を獲得する方法を含み得る。前記方法は、画像センサによる第1の画像の獲得と、電子ディスプレイ上での方向インジケータ(directional indicator)の表示と、前記画像センサによる第2の画像の獲得と、前記第1の画像および前記第2の画像に基づいた立体画像の生成を含み得る。他の実施形態では、前記方法は、電子ディスプレイの対応する部分に前記第1の画像の一部分を表示することと、前記電子ディスプレイの対応する部分に前記画像センサからのプレビュー画像の一部分を表示することを、さらに含み得る。他の実施形態では、前記方法は、電子ディスプレイ上に前記第1の画像の透過版(transparent version)を表示すること、または、前記電子ディスプレイ上にプレビュー画像の透過版を表示することを、さらに含み得る。さらに他の実施形態では、前記方法は、高品質画像を獲得するために必要とされる水平偏移の、電子ディスプレイ上でのインジケーションの表示を、さらに含み得る。他の実施形態は、動的に推定された品質インジケータの表示を含み得る。いくつかの実施形態では、前記第2の画像の獲得は、ユーザー駆動の制御(user actuated control)に応答して実行され、一方で、他の実施形態では、前記第2の画像は、自動的に獲得される。これら実施形態では、前記第2の画像の自動的な獲得が、第1の画像およびプレビュー画像間の水平視差に基づき得る。他の実施形態では、前記第2の画像の獲得は、前記第1の画像および前記実時間画像間のフレーム視差、もしくは加速度計、もしくはオート・フォーカス・モジュールからの入力に、少なくとも部分的に基づいている。
[0006] 他の実施形態は、画像センサおよび電子プロセッサを含む画像デバイスを備え得、前記電子プロセッサは、前記画像センサを制御するように構成されている。これら実施形態は、また、前記画像センサを使用して第1の画像を獲得し、前記画像センサを使用して第2の画像を獲得し、前記第1の画像および前記第2の画像間の垂直視差を決定し、前記第1の画像および前記第2の画像間の水平視差を決定し、前記第1の画像および前記第2の画像間の幾何学的歪みを決定し、前記第1の画像および前記第2の画像間の収束点を決定し、および少なくとも1つの補正された画像を作成するために補正を適用するように、構成された制御モジュールを含み得る。いくつかの実施形態では、前記方法は、前記補正された画像に基づいた立体画像ペアの作成を、さらに含み得る。他の実施形態では、上記のエレメントが、繰り返し実行され得る。他の実施形態では、前記画像デバイスは、ワイヤレス電話ヘッドセットをさらに備え得る。他の実施形態では、前記制御モジュールは、自動的に前記第2の画像を獲得するように構成され得る。前記デバイスのいくつかの実施形態は、ユーザー駆動の制御をさらに備え、前記制御モジュールは、前記ユーザー駆動の制御の第1の駆動に応答して、前記第1の画像を獲得するように、および、前記ユーザー駆動の制御の第2の駆動に応答して、第2の画像を獲得するように、さらに構成されている。
[0007] 他の実施形態は、画像センサ、電子ディスプレイ、およびプロセッサを備えている画像デバイスを含み、前記プロセッサは、前記画像センサおよび前記電子ディスプレイを制御するように構成されている。これら実施形態は、前記画像センサを使用して第1の画像を獲得し、前記電子ディスプレイ上に方向インジケータを表示し、前記画像センサを使用して第2の画像を獲得し、前記第1の画像および前記第2の画像に基づいた立体画像を生成するように構成された制御モジュールをさらに含み得る。いくつかの実施形態では、前記制御モジュールは、前記第1の画像および前記第2の画像間の水平視差を決定するようにさらに構成されており、前記方向インジケータの表示は、この水平視差に基づいている。他の実施形態では、前記デバイスは、加速度計をさらに備え、前記方向インジケータの表示は、前記加速度計からの入力に基づいている。別の実施形態では、前記制御モジュールは、前記電子ディスプレイ上に前記第1の画像の一部分を表示するようにさらに構成されており、一方で、さらに他の実施形態では、前記制御モジュールは、前記電子ディスプレイ上にプレビュー画像の一部分を表示するようにさらに構成されている。他の実施形態では、前記第1の画像の一部分および前記プレビュー画像の一部分が、同時に表示される。
[0008] 他の実施形態は、前記画像センサを使用して第1の画像を獲得することと、前記画像センサを使用して第2の画像を獲得することと、前記第1の画像および前記第2の画像間の垂直視差を決定することと、前記第1の画像および前記第2の画像間の水平視差を決定することと、前記第1の画像前記第2の画像および間の幾何学的歪みを決定することと、前記第1の画像および前記第2の画像間の収束点を決定することと、少なくとも1つの補正された画像を成すために補正を適用することを、プロセッサに行わせるように作用する、プロセッサ実行可能命令群を有する、非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を含む。他の実施形態は、前記補正された画像に基づいて立体画像ペアを生成することを、プロセッサに行わせるように作用する、実行可能な命令群をさらに含む。いくつかの他の実施形態は、行合計ベクトルの相互相関に基づいて、垂直視差を決定することを、プロセッサに行わせるように作用する命令群を含む。
[0009] 他の実施形態は、画像センサを使用して第1の画像を獲得することと、方向インジケータを表示することと、前記画像センサを介して第2の画像を獲得することと、前記第1の画像と前記第2の画像とに基づいて立体画像を生成することを、プロセッサに行わせるように作用する、プロセッサ実行可能命令群を有する非一時的なコンピュータ可読媒体を含む。他の実施形態は、電子ディスプレイの一部分上に前記第1の画像の一部分を表示することと、前記電子ディスプレイの一部分上にプレビュー画像の一部分を表示することを、プロセッサに行わせるように作用する命令群を、さらに含む。いくつかの他の実施形態は、電子ディスプレイ上に前記第1の画像の透過版を表示することと、または、前記電子ディスプレイ上にプレビュー画像の透過版を表示することを、プロセッサに行わせるように作用する命令群を、さらに含み得る。
[0010] 他の実施形態は、画像センサを介して第1の画像を獲得するための手段と、前記画像センサを介して第2の画像を獲得するための手段と、前記第1の画像および前記第2の画像間の垂直視差を決定するための手段と、前記第1の画像および前記第2の画像間の水平視差を決定するための手段と、前記第1の画像および前記第2の画像間の幾何学的歪みを決定するための手段と、前記第1の画像および前記第2の画像間の収束点を決定するための手段と、少なくとも1つの補正された画像を作成するために補正を適用するための手段と、を備えた画像デバイスを含み得る。いくつかの実施形態は、前記補正された画像に基づいて立体画像を生成するための手段を、さらに含む。
[0011] 他の実施形態は、画像センサを使用して第1の画像を獲得するための手段と、方向インジケータを表示するための手段と、前記画像センサを使用して第2の画像を獲得するための手段と、前記第1の画像および前記第2の画像に基づいて立体画像を生成するための手段を備えた画像デバイスを含む。
[0012] 開示される態様は、以下に、添付される図面に関連して説明され、開示される態様を限定するためでなく、例示するために提供され、ここにおいて、同様の符号は、同様の要素を示す。
[0013] 図1は、開示される本発明のいくつかの動作の実施形態を実現するデバイスを示すブロック図である。 [0014] 図2は、獲得制御モジュールの一実施形態において使用されるプロセスを示すフローチャートである。 [0015] 図3は、2つの画像の行合計ベクトル間の最良の適合(best fit)を実行するために使用される、行合計ベクトルの作成、および画像の行合計(image row summation)を示す。列合計ベクトル(column sum vector)が、同様に示されている。 [0016] 図4は、2つの画像間の垂直視差を示し、および、どのように一実施形態が、垂直視差を減じるためにまたは除くために前記画像を切り取り得るかを示す。 [0017] 図5Aは、立体画像ペアを獲得するために獲得制御モジュールによって使用されるプロセスの一実施形態を示す、フローチャートである。 図5Bは、立体画像ペアを獲得するために獲得制御モジュールによって使用されるプロセスの一実施形態を示す、フローチャートである。 [0018] 図6は、立体画像ペアの前記第2の画像を自動的に獲得するために獲得制御モジュールによって使用されるプロセスの一実施形態を示す、フローチャートである。 [0019] 図7は、どのように獲得制御モジュールの一実施形態が立体画像ペアの前記第2の画像を自動的に獲得するための最良の水平視差を決定し得るかを示す。 [0020] 図8は、立体画像ペアの第2の画像の獲得を容易にするために電子ディスプレイ上に表示される画像の一実施形態を示す。 [0021] 図9は、立体画像ペアの第2の画像の獲得を容易にするために電子ディスプレイ上に表示される画像の別の実施形態を示す。 [0022] 図10は、電子ディスプレイ上に方向インジケータを表示するユーザー・インターフェース・モジュールまたは獲得制御モジュールにおいて実行するプロセスの一実施形態を示すフローチャートである。
[0023] ここに開示される実現は、ただ1つの画像センサを有するデバイスによって立体画像を獲得するための、システム、方法、および装置を提供する。特に、ここに説明されるいくつかの実施形態は、1つの画像センサを使用して2つの別個の画像を獲得することと、これら2つの画像に基づいて立体画像を生成することを意図する。一実施形態は、前記画像センサが前記第2の画像を獲得する前にどの方向に移動されるべきかを示す方向インジケータを、電子ディスプレイ上に提供することを含む。当業者は、これらの実施形態がハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組み合わせで実現され得ることを理解するだろう。
[0024] 以下の記述は、特定の詳細が、例の徹底的な理解を提供するために与えられる。しかしながら、前記例がこれらの特定の詳細が無くとも実施され得ることが、一部の当業者によって理解されるだろう。例えば、不必要な詳細で前記例を曖昧にしないために、電子部品/デバイスは、ブロック図において示され得る。他の例では、このような構成要素、他の構造体、および技術が、前記例をさらに説明するために、詳細に示され得る。
[0025] 前記例が、フローチャート、フローダイアグラム、有限状態ダイアグラム、構造ダイアグラム、またはブロックダイアグラムとして示される、プロセスとして説明され得ることが、さらに注目される。フローチャートはシーケンシャルなプロセスとして動作を説明し得るが、動作の多くは並行して、または同時に実行されることができ、前記プロセスは、繰り返されることができる。加えて、動作の順序は、並べ替えられ得る。プロセスは、その動作が完了されるときに終了される。プロセスは、方法、機能、プロシージャ、サブルーチン、サブプログラムなどに対応し得る。プロセスがソフトウェア機能に対応するとき、その終了は、主要機能、または呼び出し機能への機能の戻りに対応する。
[0026] 当業者は、情報および信号が、さまざまな異なる技術および技法のいずれかを使用して表され得ることを理解するだろう。例えば、上記説明の全体にわたって参照され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、およびチップは、電圧、電流、電磁波、磁場または磁性粒子、光場または光粒子、あるいはこれらの任意の組み合わせによって表され得る。
[0027] 図1は、画像センサ115に連係されたプロセッサ120を含む1セットの構成要素を有するデバイス100のハイレベル・ブロック図を示す。ワーキング・メモリー105、ストレージ110、電子ディスプレイ125、メモリー130が、また、前記プロセッサ120と連通している。
[0028] デバイス100は、セルラー電話、デジタルカメラ、携帯情報端末などであり得る。デバイス100は、また、画像を獲得するために内部または外部カメラを使用するデスクトップ・パソコン、ビデオ会議ステーションなどのような、より固定式のデバイスであり得る。複数のアプリケーションが、デバイス100においてユーザーに利用可能であり得る。これらアプリケーションは、従来の写真用アプリケーション、ハイ・ダイナミック・レンジ画像、パノラマ・ビデオ、または、3D画像または3Dビデオのような立体画像を含み得る。
[0029] プロセッサ120は、画像アプリケーションのために特別に設計されたプロセッサ、または汎用プロセシングユニットであり得る。示されているように、前記プロセッサ120は、メモリー130およびワーキング・メモリー105に接続されている。示されている実施形態では、前記メモリー130は、画像センサ制御モジュール135と、視差除去モジュール(disparity removal module)140、収束調整モジュール(convergence adjustment module)145、幾何学的歪み推定および補正モジュール(geometric distortion estimation and correction module)150、シフトおよび切り取りモジュール(shift and crop module)155、コード化モジュール160、ユーザー・インターフェース・モジュール165、獲得制御モジュール170、および動作システム175を格納している。これらモジュールは、さまざまな画像処理およびデバイス管理タスクを実行するように前記プロセッサを構成する命令群を含む。ワーキング・メモリー105は、メモリー130の前記モジュールに含まれているプロセッサ命令群のワーキングセットを保存するために、プロセッサ120によって使用され得る。代わって、ワーキング・メモリー105は、また、デバイス100の動作の間に作成される動的データを保存するために、プロセッサ120によって使用され得る。
[0030] 前述のように、前記プロセッサは、前記メモリーに保存されている複数のモジュールによって構成されている。前記画像センサ制御モジュール135は、前記画像センサ115の焦点位置を調整するように前記プロセッサ120を構成する命令群を含む。前記画像センサ制御モジュール135は、また、前記画像センサ115によって画像を獲得するように前記プロセッサ120を構成する命令群を含む。従って、前記プロセッサ120は、前記画像獲得制御モジュール135、画像センサ115、およびワーキング・メモリー105と共に、画像センサを使用して画像を獲得するための一手段となる。前記視差除去モジュール140は、画像センサ115によって獲得される2つの画像間の垂直視差を検出および除去するように前記プロセッサ120を構成する命令群を提供する。視差除去モジュール140は、また、画像センサ115によって獲得される2つの画像間の水平視差を検出するための、命令群を提供し得る。前記収束調整モジュールは、前記画像センサ115によって獲得された2つの画像間の収束点を調整するように前記プロセッサを構成する命令群を含む。幾何学的歪み推定および補正モジュール150は、画像センサ115によって獲得される2つの画像のミスアラインメントによって生じ得る幾何学的歪みを検出するように前記プロセッサを構成する命令群を含む。シフトおよび切り取りモジュール155は、前記2つの画像間の垂直視差に対して補正するために、画像1および画像2を互いに対してシフトするように前記プロセッサ120を構成する命令群を含む。シフトおよび切り取りモジュール155は、また、前記2つの画像間で一致するアラインメントを果たすように画像1および/または画像2を切り取るための命令群を含み得る。コード化モジュール160は、画像センサ115によって獲得された画像を、立体画像にコード化するように前記プロセッサを構成する命令群を含む。従って、コード化モジュール160中に含まれている命令群は、第1の画像および第2の画像に基づいて立体画像を生成するための一手段となる。ユーザー・インターフェース・モジュール165は、前記電子ディスプレイ125上に情報を表示するように前記プロセッサを構成する命令群を含む。
[0031] 獲得制御モジュール170は、デバイス100の全体画像処理機能(overall image processing function)を制御する命令群を含む。例えば、獲得制御モジュール170は、前記画像センサ115を使用して第1および第2の画像を獲得するように前記プロセッサ120を構成するために、画像制御モジュール135においてサブルーチンを呼び出す命令群を含み得る。獲得制御モジュール170は、このとき、前記2つの画像間の前記水平視差を決定するために、視差除去モジュール140を呼び出し得る。獲得制御モジュール170は、このとき、前記第1および第2の画像間の前記幾何学的歪みを決定するために、幾何学的歪み推定および補正モジュール150を呼び出し得る。獲得制御モジュールは、このとき、2つの画像間の収束点を調整するために、前記収束調整モジュール145においてサブルーチンを呼び出し得る。
[0032] 動作システム・モジュール175は、デバイス100のメモリーおよび処理リソース(processing resource)を管理するように前記プロセッサを構成する。例えば、動作システム・モジュール175は、前記電子ディスプレイ125、ストレージ110、画像センサ115のようなハードウェア・リソースを管理するために、デバイス・ドライバーを含み得る。従って、いくつかの実施形態では、前述の画像処理モジュールに含まれている命令群は、直接的にこれらのハードウェア・リソースと相互作用せず、代わりに、動作システム・コンポーネント175に位置されているAPIまたは標準サブルーチンを介して、相互作用し得る。そして、動作システム175中の命令群は、これらのハードウェア・コンポーネントと直接的に相互作用し得る。
[0033] プロセッサ120は、ストレージ・モジュール110にデータを書き込み得る。ストレージ・モジュール110が従来のディスク・デバイスとして図示されているが、当業者は、複数の実施形態が、ディスクベースのストレージ・デバイス、または、メモリー・ディスク、USBドライブ、フラッシュ・ドライブ、遠隔で接続されたストレージ媒体、仮想ディスク・ドライブなどを含むように、種々の他のタイプのストレージ媒体を含み得ることを、理解するだろう。
[0034] 図1は、プロセッサ、画像センサ、メモリーを含むように個別のコンポーネントを備えたデバイスを示しているが、当業者は、これらの個別のコンポーネントが、特定の設計目標を達成するために種々の方法で組み合され得ることを、理解し得る。例えば、別の実施形態では、前記メモリー・コンポーネントは、コストを節減し且つ性能を改良するために、プロセッサ・コンポーネントと組み合され得る。
[0035] さらに、図1は、種々のモジュールを備えたメモリー・コンポーネントと、ワーキング・メモリーを備えた個別のメモリー105とを含むために、2つのメモリー・コンポーネントを示しているが、当業者は、異なるメモリー・アーキテクチャを使用する複数の実施形態に、気づき得る。例えば、一設計は、メモリー130に含まれているモジュールを実装するプロセッサ命令群の保存のために、ROMまたはスタティックRAMを使用し得る。代わって、プロセッサ命令群は、デバイス100に内蔵されているか、外部デバイス・ポートを介して接続されているディスク・ストレージ・デバイスから、システム起動時に、読み取られ得る。そして、前記プロセッサ命令群は、前記プロセッサによる実行を容易にするために、RAMにロードされ得る。例えば、ワーキング・メモリー105は、RAMメモリーであり得、命令群は、前記プロセッサ120による実行の前に、ワーキング・メモリー105にロードされる。
[0036] 図2は、図1の獲得制御モジュール170の一実施形態で動作するプロセス200を示しているフローチャートである。前記プロセス200は、ブロック205で開始し、そして、第1の画像が獲得されるブロック210に移行する。前記第1の画像は、画像センサ制御モジュール135中にサブルーチンを呼び出す獲得制御モジュール170における命令群によって獲得され得る。画像センサ制御モジュール135は、画像を獲得するために、場合によっては動作システム・モジュール175を介して、画像センサ115を制御するように、前記プロセッサを構成する。そして、プロセス200は、第2の画像が獲得されるブロック215に移行する。そして、プロセス200は、命令群が前記第1および第2の画像間の前記垂直視差を決定するブロック220に移行する。これら命令群は、図1の前記視差除去モジュール140に配置され得る。2つの立体画像間の垂直視差が吐き気、頭痛、および他の身体的影響を生じさせる可能性があることは、良く知られている。この結果、垂直視差を立体画像から除去することは、見ることの快適さを確実にする。
[0037] 示されている実施形態では、プロセス200のブロック220は、各画像の行を最初に合計すること(summing)によって、前記第1および第2の画像間の垂直視差を決定し得る。この合計プロセスが、各画像に対して1つのベクトル、すなわち2つのベクトルを作成する。ベクトルの各エレメントが、画像に対する1つの行合計を示す。ベクトルの一例が、図3に、アイテム310で、示されている。
図3の前記画像305の行が、合計されており、グラフ310によって示されているベクトルを提供する。同じ画像センサによって、しかし異なる画像センサの位置から行われる、2つの画像に対する行合計が、図3に示されている。画像320は、第1の位置から撮影され、画像330は、第2の位置から撮影される。前記2つのグラフの違いが、前記2つの画像間の差異を示している。
[0038] しかしながら、前記ベクトルは、実質的な類似点を有しており、例えば、前記2つのグラフの山部および谷部間に、全体的な一致がある。これらの類似点は、最良の適合の動作(best fit operation)が、前記2つのベクトルにおいて実施されることを、可能にする。いくつかの実施形態では、最良の適合は、前記2つのベクトルの位置の間の絶対差の合計を最小限にする前記2つのベクトル間のオフセットを特定することによって、決定され得る。行合計は、視差の認識および調整に比較的簡潔な解決法を提供する一方で、いくつかの欠点を有する。例えば、これの有効性は、場合に依存し、あるケースでは、完全に機能しないこともあり得る。さらに、これの精度は、前記2つの画像間にミスアラインメントがあるときに影響される可能性があり、例えば、ピッチにおけるミスアラインメントが、行合計に基づいた解決法の精度に影響する可能性がある。(他方のセンサより現場に近いセンサの)スケーリングによる画像ミスアラインメントが、また、行合計に基づいた垂直視差の決定の精度に影響を与える可能性がある。他の実施形態は、水平エッジ検出プロセスの結果に基づいて、ベクトルを形成し得る。そして、最良の適合は、上記のように、同様の方法で、前記水平エッジ・ベクトル(horizontal edge vector)において実施される。
[0039] この最良の適合の動作は、オフセットを特定し、これによって、一方のグラフは他方と最良にアラインする(best align with)ように、調整され得る。このオフセットは、前記画像を垂直にアラインするために、前記画像の1つに適用され得る。従って、行合計ベクトルの最良の適合を実施する垂直視差除去モジュール140中の命令群が、2つの画像間の前記垂直視差を決定するための一手段となる。
[0040] ブロック220(図2)の他の実施形態は、他の技術を使用して、垂直視差を決定し得る。例えば、いくつかの実施形態は、前記2つの画像のローカル区域(local neighborhood)内で、最良の一致(best match)を特定し得る。例えば、一実施形態は、1つの画像中の重要な特徴点(key feature point)の位置を決定し得、他の画像で前記最良の一致を探し得る。従って、重要な特徴点のために、ローカル区域内で最良の一致を実施する垂直視差除去モジュール140中の命令群が、2つの画像間の前記垂直視差を決定するためのさらなる手段となる。
[0041] 別の実施形態は、2つの画像間の位置シフトおよび角運動(angular motion)を決定するために、加速度計のような組み込まれた運動センサを使用し得る。相対的な垂直視差は、前記2つの画像の獲得の間に生じる相対運動に基づいて、算定されることができる。かくして、前記2つの画像の獲得間に生じる相対運動を算出するために加速度計のような組み込まれた運動センサを使用する垂直視差除去モジュール140中の命令群が、2つの画像間の垂直視差を決定するためのさらなる手段となる。
[0042] 垂直視差が決定された後に、プロセス200は、水平視差が決定されるブロック225に移行する。水平視差の検出は、ベクトルが前記行の代わりに、画像の列をサマライズすることによって作成されることを除いて、垂直視差の検出と同様の方法で実施され得る。この列合計プロセスは、また、図3に示されている。図3は、グラフ340は、画像の列をサマライズすることによって生成されるベクトルの値を表している。
垂直視差に関して前述されたプロセスと同様のプロセスにおいて、前記水平視差に対する補正は、前記2つの画像の列合計ベクトル間の最良の適合を決定することによって、取得されることができる。従って、2つの列合計ベクトルを作成し且つ前記2つの列合計ベクトル間の最良の適合を実施するために2つの画像の列をサマライズする命令群が、2つの画像間の水平視差を決定するための一手段となる。
[0043] 別の実施形態は、水平視差を同様に決定するために上述された特徴点の技術を使用し得る。従って、2つの画像のローカル区域における特徴点に対する最良の一致を決定する視差除去モジュール140中の命令群は、前記2つの画像間の水平視差を決定するための一手段となる。
[0044] 図2に戻ると、プロセス200は、幾何学的歪みが決定されるブロック230に移行する。ブロック230は、プロセッサ120を構成する幾何学的歪みの推定および補正モジュール150中に含まれている命令群によって、実施され得る。いくつかの実施形態では、幾何学的歪みの推定のための手段は、前記幾何学的歪みの推定および補正モジュール150中で位置する特徴点を実施するための命令群に対するものである。異なる位置から撮影され得る画像1および画像2間の特徴点を一致させることによって、命令群は、幾何学的歪みに対して補正するために、3次元のプロジェクション行列(projection matrix)を作成することができる。これらの技術は、この分野において周知である。2つの画像間の幾何学的歪みを決定するための他の手段は、加速度計のような運動センサを使用し得る。命令群は、前記2つの画像の獲得の間の位置における相対的なシフトを記録する。現在の加速度計のほとんどは、6つの独立した軸にわたってこのシフトを測定することができる。加速度計がデバイス100のような画像デバイスに組み込まれている場合、いくつかの実施形態は、また、上述の垂直および水平視差の推定を補助するために、それを使用し得る。
[0045] 次に、プロセス200は、補正が前記画像の1つまたは両方に適用される、ブロック235に移行する。ブロック235は、デバイス100の、視差除去モジュール140、収束調整モジュール145、幾何学的歪み推定および補正モジュール150、シフトおよび切り取りモジュール155、または、前記獲得制御モジュール170のいずれか1つまたはこれらの組み合わせ中に含まれている命令群によって、実施され得る。これらモジュール中の命令群は、補正された画像を作成するために補正を適用するための一手段となる。
[0046] 任意の幾何学的歪みに対して補正するために、ブロック235は、ブロック230で決定された角運動情報に依存し得る。ひとたび前記角運動が検知されると、3次元のプロジェクション行列が推定される。そして、一方の画像は、他方の画像に正確に一致させるために、補正され得る。これらの技術を実現する命令群は、画像に補正を適用するための一手段となる。
[0047] 任意の垂直視差に対して補正するために、ブロック235は、1つもしくは両方の画像をシフトおよび/または切り取りし得る。例えば、前記第1の画像は、前記第2の画像に対して視差を除去するために、切り取られ得る。しかしながら、前記第1の画像は、前記切り取られたディメンションが比較的小さいので、前記第2の画像は、前記第1の画像と同等のディメンションを維持するために、同様に切り取られる必要がある。この切り取りは、オリジナルの画像の垂直方向の視野より小さい垂直方向の視野を有する立体画像ペアを、もたらす。しかしながら、垂直視差を除去することは、垂直方向に配列された立体画像ペアを形成するために、前記画像の底部および上部において画像の高さの最大5%の除去を、典型的に必要とする。このことは、合計10%だけ垂直方向の視野を減じる。上記のような1つのまたは両方の画像の切り取りを実施するシフトおよび切り取りモジュール155中に含まれる命令群は、補正された画像を作成するために補正を適用するための、別の手段となる。
[0048] ひとたび適切な補正が適用されると、プロセス200は、前記第1および第2の画像の収束点が決定される、ブロック240に移行する。ブロック249は、図1の収束調整モジュール145中に含まれている命令群によって実施され得る。ひとたび水平視差が検知されると、いくつかの実施形態における収束点を決定するための一手段は、全体の水平視差の半分となるように前記収束点を設定する命令群である。代わって、2つの画像間の収束点を決定するための別の手段は、まずシーンに関する深さの範囲を推定し、深さのヒストグラムを作成するための命令群のためのものである。前記収束点は、前記立体の深さが快適な視域(viewing zone)となるように、命令群によって設定される。これらの技術は、この分野において周知である。
[0049] 次に、プロセス200は、立体画像ペアが任意の補正された画像に基づいて作成される、ブロック245に移行する。一実施形態では、ブロック245は、コード化モジュール160中の命令群によって実施され得る。オリジナルの第1および第2の画像は、同様に使用され得る。そして、プロセス200は、終了状態250に移行する。
[0050] 切り取りプロセスの一実施形態は、図4に示されている画像によって示されている。水域上の建物の2つの画像が、示されている。画像410は、画像420よりわずかに低い視点から、しかし同じ画像センサを使用して、撮影された。従って、画像410は、これの視野に湖の部分をより多く含んでおり、画像420は、これの視野に空の部分をより多く含んでいる。他方の画像に含まれていない各画像の部分が、各画像の網掛け部分によって示され、415および425として識別されている。示されているように、前記2つの画像は、立体画像ペアを形成する前に推定され得る、顕著な垂直視差を含んでいる。前記垂直視差を推定するために、各画像の網掛け部分415および425が、切り取られて、括弧で囲まれたエリア440によって識別されている前記2つの画像の共通の部分によって示されている最終的な視野をもたらす。
[0051] 図5Aおよび図5Bは、立体画像ペアを獲得するために獲得制御モジュールによって使用されるプロセスの一実施形態を示しているフローチャートである。図5Aは、図1の獲得制御モジュール170の一実施形態で動作するプロセス500を示しているフローチャートである。図5Bに示されているプロセス550が、示されているプロセス500に密接に関係している。プロセス550は、また、図1の獲得制御モジュール170の一実施形態中で動作し得る。プロセス500およびプロセス550は、前記画像センサの最適位置に関して、電子ディスプレイ上に情報を表示するために、および、立体画像ペアの前記第1および第2の画像を獲得するために、一緒に作用する。プロセス500およびプロセス550によって示されている実施形態は、立体画像を形成する前に前記第2の画像を獲得するために、ユーザー入力に依存する。プロセス500は、前記立体画像ペアの前記第1の画像を獲得するために、および、前記電子ディスプレイ上での情報の表示を管理するために、信頼でき、一方で、プロセス550は、前記第2の画像を獲得し、立体獲得モード(stereoscopic capture mode)から前記デバイスを終了させる。
[0052] プロセス500は、図1に示されているように、デバイス100の獲得制御モジュール170中に含まれる命令群によって、実施され得る。プロセス500は、開始状態505において開始し、そして、プロセス500が画像獲得命令を待つブロック510に移行する。前記画像獲得命令は、ユーザーがデバイス制御を駆動するときに、または、より自動的な手段によって、発生し得る。例えば、前記画像デバイス100は、所定の遅延の後に、画像を自動的に獲得するセルフタイマーを含み得る。代わって、デバイス100の他の実施形態は、遠隔で、例えばデバイス100への有線または無線の接続を介して画像獲得を命令する遠隔制御手段を含み得る。
[0053] 獲得命令が発生した後に、プロセス500は、第1の画像が獲得されるブロック512に移行する。プロセス500を実現する命令群は、前記第1の画像を獲得するために、図1に示されているようなデバイス100の画像センサ制御モジュール135に配置されるサブルーチンを呼び出し得る。このようなサブルーチンにおける命令群は、前記第1の画像を獲得するために画像センサ115を制御するようにプロセッサ120を構成し得る。そして、プロセス500は、命令群がデータ・ストアに前記画像を保存する、ブロック514に移行する。いくつかの実施形態では、前記画像は、図1のデータ・ストア110のようなデータ・ストアに保存され得る。そして、プロセス500は、デバイスがそのとき立体獲得モードにある場合、決定ブロック516に移行する。このようなモードは、例えば、前記第1の画像獲得命令を実施する前にユーザーが動作の立体モードを選択している場合に、可能であり得る。前記立体獲得モードが可能でない場合、プロセス500は、ブロック530に移行し、プロセス500は終了する。
[0054] しかしながら、前記立体獲得モードが可能である場合、プロセス500のいくつかの実施形態は、ブロック518に移行し、前記電子ディスプレイ上に、前記第1の獲得された画像の一部分を表示する。前記第1の獲得された画像の表示の実施形態が、下記に、図7および図8の説明において、より詳細に説明される。そして、プロセス500は、命令群がプレビュー画像を獲得するブロック520に移行する。プレビュー画像は、図1のデバイス100の前記画像センサ115によって感知されるように、実時間画像であり得る。そして、プロセス500は、前記プレビュー画像が同様に前記電子ディスプレイ上に表示されるブロック522に、移行する。ブロック518ないし522の表示機能を示している実施形態が、下記に、図8および図9の説明において、さらに説明される。
[0055] 次に、プロセス500は、命令群が画像1およびプレビュー画像間の水平視差を計算するブロック524に、移行する。ブロック524は、図1に示されているように、デバイス100の視差除去モジュール140中に含まれるサブルーチンによって、実施され得る。前記水平視差を計算することは、行合計(row summation)、方位センサ(orientation sensor)、および関心ポイントのマッチング(points of interest matching)を含む、図2に関して上述された技術の1つを使用し得る。ひとたび画像1および前記プレビュー画像間の水平視差が理解されると、プロセス500は、命令群が1つ以上のインジケータを表示するブロック526に、移行する。ブロック526は、下記に、図10の議論において、より詳細に説明される。インジケータがブロック526において表示された後、プロセス500は、決定ブロック516に戻る。そして、プロセス500は、上述のように、繰り返す。
[0056] プロセス550に関しては、このプロセスは、開始状態555において開始し、そして、プロセス550が第2の獲得命令を待つブロック560に移行する。第2の画像獲得命令が発生すると、プロセス550は、ブロック565で前記第2の画像を獲得する。ブロック565は、図1に示されているように、デバイス100の、前記獲得制御モジュール170における命令群によって、または、前記画像センサ制御モジュール135によって、実現され得る。そして、プロセス550は、前記第2の画像がデータ・ストアに保存される、ブロック570に移行する。そして、プロセス550は、命令群が立体獲得モードを停止させる、ブロック575に移行する。前記立体獲得モードがプロセス550のブロック575によって停止されると、プロセス500の決定ブロック516がプロセス500を終了ブロック530に移行させることに、留意されたい。かくして、プロセス550およびプロセス500は、ディスプレイ上に方向インジケータを表示している間に、前記立体画像ペアの獲得を完了するように、相互作用する。
[0057] 図6は、立体画像ペア獲得プロセスの別の実施形態を示している。プロセス600は、図1に示されているように、デバイス100の獲得制御モジュール170中に含まれる命令群によって、実施され得る。プロセス500およびプロセス550とは異なって、プロセス600は、前記第2の立体画像を自動的に獲得する。プロセス600は、開始ブロック605において開始し、そして、プロセス600を実施する命令群が画像獲得命令を待つブロック607に移行する。前記画像獲得命令が発生するとき、プロセス600は、ブロック610に移行し、命令群は、画像1を獲得する。画像1は、前記立体画像ペアを作成することを必要とされる2つの画像のうちの第1の画像を示す。前記画像が獲得された後、プロセス600は、命令群がデータ・ストアに画像1を書き込むブロック615に移行する。データ・ストアは、フラッシュ・ディスク、外部ハード・ドライブなどのような不揮発性メモリーを含み得、または、これは、図1で示されているワーキング・メモリー105またはRAMのような揮発性メモリーであり得る。
[0058] 次に、プロセス600は、命令群が、画像1の一部分を電子ディスプレイ上に表示されるようにするブロック620に、移行する。プロセス620は、図1に示されているように、デバイス100のユーザー・インターフェース・モジュール165中に含まれる命令群によって、いくつかの実施形態において、実施され得る。いくつかの他の実施形態では、前記電子ディスプレイは、図1に示されているように、デバイス100のディスプレイ125と同様のディスプレイであり得る。そして、プロセス600は、命令群がプレビュー画像を獲得するブロック625に移行する。前記プレビュー画像は、画像センサ、例えば図1に示されているようなデバイス100の前記画像センサ115から獲得される実時間画像であり得る。そして、プロセス600は、前記プレビュー画像の一部が同様に電子ディスプレイ上に表示されるブロック630に、移行する。ブロック630は、また、デバイス100のユーザー・インターフェース・モジュール165中に含まれる命令群によって、いくつかの実施形態において、実施され得る。
[0059] そして、プロセス600は、前記プレビュー画像および画像1間の前記水平視差が算出されるブロック635に、移行する。ブロック635は、デバイス100の視差除去モジュール140中に含まれる命令群によって実施され得、プレビュー画像に対して画像1の相対位置を決定するための加速度計の使用、または、前記画像および前記プレビュー画像間の利益の一致のポイント、画像1および前記プレビュー画像の列を合計することによって作成されたベクトルの最良の適合を含む、任意の前述の技術を、水平視差を算出するために使用し得る。
[0060] 次に、プロセス600は、現在の水平視差が、第2の画像のために必要とされる閾値に対して比較される、決定ブロック640に移行する。いくつかの実施形態では、前記現在の水平視差が適切な立体画像ペアを形成するためのパラメータの範囲内である場合、プロセス600は、前記第2の画像が獲得されるブロック645に移行する。そして、プロセス600は、終了ブロック675に移行する。前記現在の水平視差が適切な立体画像ペアのために必要とされる閾値の範囲外である場合、プロセス600は、決定ブロック670に移行する。
[0061] 決定ブロック670において、プロセス600は、ユーザー駆動の制御が駆動されているかどうかを決定する。プロセス600によって示されている実施形態のようないくつかの実施形態では、前記立体画像デバイスは、自動の獲得モードを提供し、しかしまた、ユーザーが前記自動獲得プロセスを無効にし、且つ手動で立体画像ペアの第2の画像を獲得することを、可能にする。ブロック670は、この可能性を提供する。前記ユーザー駆動の制御が駆動されている場合、プロセス600は、前記第2の画像が獲得されるブロック645に移行する。ユーザー駆動の制御が駆動されていない場合、プロセス600は、決定ブロック670から決定ブロック655に移行する。
[0062] 決定ブロック655において、前記現在の水平視差は、境界閾値(boundary threshold)に対して比較される。境界閾値は、前記水平視差が、第2の画像の自動の獲得を停止することを前記画像デバイスに対して必要とするほどに大きいかどうかを、規定する。前記立体画像の獲得を停止することは、例えば、画像処理アルゴリズムが画像1およびプレビュー画像間の相互関係を決定することができないときに、必要とされ得る。このようなケースでは、ユーザーへの偽の結果を防ぐために前記立体画像獲得モードを自動的に停止させることが、必要であり得る。前記現在の水平視差がこれらの境界を越えている場合、プロセス600は、エラーが発生されるブロック650に移行する。ブロック650を実行する命令群は、例えばデバイス100のディスプレイ125上にエラーメッセージを生じさせ得る。これらの命令群は、デバイス100のユーザー・インターフェース・モジュール165中に含まれ得る。前記水平視差が、立体画像ペアが獲得されるように境界の範囲内にとどまる場合、プロセス600は、ブロック660に移行する。
[0063] ブロック660では、1つ以上のディスプレイ・インジケーションが、電子ディスプレイ、例えば、図1に示されているようなデバイス100のディスプレイ125上に、提供される。ブロック660は、下記に、図8ないし図10の説明において、より詳細に説明される。インジケータがブロック660に表示された後に、プロセス600は、ブロック625に戻り、プロセス600は、繰り返す。
[0064] ブロック640の他の実施形態は、第2の画像が獲得されるべきかどうかを決定するために、複雑な技術を実現する命令群を含み得る。例えば、いくつかの実施形態は、前記現在の水平視差が許容範囲内にあるかどうかだけでなく、前記現在の水平視差がより高品質の立体画像ペアを作成する傾向にあるかどうか、または、逆に、その傾向がより低品質の立体画像ペアに向けられているかどうかも同様に、考慮し得る。
[0065] このようなアプローチの有利な点が、1つの画像センサのパンの距離(pan distance)の関数としての水平視差のグラフである図7によって、示されている。許容可能な立体画像は、前記水平視差がy軸の括弧で囲まれたエリア760によって示されている前記グラフの網掛け部分の範囲内に収まるときに、通例作成される。暗く網掛けされた部分720および730は、許容可能な品質の立体画像ペアを作成する水平視差の値を、示している。明るく網掛けされた狭い領域740は、最適な水平視差を示している。斜線750は、一例の画像のシナリオに関する水平視差を示している。
[0066] 前記画像センサが前記第1の画像獲得位置から移動するとき、前記第1の画像およびプレビュー画像間の最初の水平視差は、図7の点705によって示されているように、ほぼゼロであり得る。しかしながら、画像センサが特定の方法にパンする(pan)のに従って、水平視差は、準最適な状態でありながら、許容範囲に入り得る。この状態は、点770によって、示されている。この点において獲得される第2の画像が許容範囲にある質の立体画像ペアを提供するのに対し、それは、最適な質ではないであろう。前記水平視差がより最適な位置へ向かっている場合、いくつかの実施形態は、前記第2の画像を獲得するために、待ち得る。例えば、待つことは、点780によって示されている、最適な領域内の新しい水平視差をもたらし得る。この点で前記第2の画像の獲得を開始することは、前記第2の画像が点770で獲得された場合より、はるかに良好な質の立体画像ペアをもたらし得る。
[0067] 図8は、第2の画像を獲得するための方向インジケータを含む電子ディスプレイ上に表示された画像の一例である。画像810は、立体画像シーケンスで獲得された第1の画像を示している。画像810は、プロセス200のブロック210において獲得された前記第1の画像、または、プロセス500の画像1であり得る。画像810は、図1のデバイス100の画像センサ115によって、獲得され得る。画像820は、いくつかの表示されたエレメントを含む、電子ディスプレイ上の画像の一実施形態である。第1に、このディスプレイの上側半分が、画像810の上側半分を含む。前記ディスプレイのこの部分は、いくつかの実施形態において、プロセス500のブロック530によって制御され得る。他の実施形態は、プロセス600のブロック620によって、前記ディスプレイのこの部分を制御し得る。前記表示された画像820の下側半分は、他の画像の一部分を含む。示されている実施形態では、この画像の部分は、プレビュー画像によって制御され得る。前記プレビュー画像の表示は、プロセス500のブロック540によって制御され得る。代わって、プロセス600のブロック630は、いくつかの実施形態の前記ディスプレイのこの部分を制御し得る。
[0068] 示されている実施形態において、前記ディスプレイ820の上側半分は、また、矢印830を含んでいる。前記矢印は、ディスプレイ820の前記上半分に示されている画像810と、前記ディスプレイ820の下半分に表示されているプレビューとの間に最適な水平視差を提供するために、前記画像センサがどの方向に移動するべきかを示している。矢印830は、スナップショットが現在のカメラ位置において獲得される場合に得られる立体の質を示すために、色を変え得る。例えば、立体の質が最適には程遠い場合、前記矢印は、赤であり得る。いくつかの実施形態では、矢印830は、水平視差が妥当且つ準最適の領域へと遷移するのに従って、黄色に遷移し得る。矢印830の長さが、また、最適な水平視差を得るために必要な追加の画像センサ移動の量に応じて、延びまたは縮み得る。水平視差が最適な位置を得るとき、いくつかの実施形態では、前記矢印は、異なるシンボルに、例えば緑のライトに、遷移し得る。代わって、前記矢印は、完全に消えるか、別の形に変化し得る。
[0069] 表示された画像820のいくつかの実施形態は、グリッド線またはルーラー・インジケータ840を含み得る。前記グリッド線は、この実施形態のディスプレイ820の上側半分に表示されている前記第1の画像と、この実施形態の表示されている画像820の下側半分に表示されている前記プレビュー画像との間で、許容された水平方向のシフトを伝えている(communicate)。前記グリッド線は、また、前記第2の画像が現在の画像センサの位置で獲得される場合に得られた立体画像の質の水準を示すように、色を変え得る。例えば、いくつかの実施形態では、前記グリッド線は、現在の水平視差が立体画像の低い質をもたらすときには、赤になり得る。前記グリッド線は、前記水平視差が妥当な水準に近づくときには、黄色になり得、前記水平視差が良好な立体画像の質を提供するときには、緑になり得る。
[0070] いくつかの実施形態は、また、ディスプレイ画像820の下側の部分に示されているステータス・バー850のような、動的に算出された立体画像の品質インジケータを、ディスプレイ画像820の一部分に装着させ得る。示されている実施形態では、ステータス・バー850の上の小さな矢印が、第2の画像が現在のセンサの位置において獲得される場合に、前記立体画像の質の水準を示すために、水平方向に移動する。示されている実施形態における前記水平方向のバーの中の、各色の領域が、特定の立体画像ペアの質の水準に対応する。一実施形態では、画像処理する命令群が、前記矢印をどこに位置づけるかを決定するために、第1の画像と前記現在のプレビューまたは実時間画像との間の水平視差を動的に算出し得る。他の実施形態は、それらの動的な質のインジケータのために、異なる形態を選択し得る。
[0071] 図9は、第2の画像を獲得するための案内を提供するために、電子ディスプレイ上に表示される画像の他の実施形態を示している。前記第1の画像910は、立体画像ペアの前記第1の画像を示している。画像920は、第1の画像910が獲得された後に、電子ディスプレイ上に表示された画像の一実施形態である。画像910では、ヒグマの背中にあるこぶが、この画像のほぼ中央にあることに、注目されたい。一実施形態では、画像920における明るいクマが、プレビュー画像、または、デバイス画像センサによって現在感知されている実時間画像である。画像920のプレビュー画像は、中央より左に、クマのこぶを示している。クマの位置におけるこのシフトは、画像910が獲得されたあとに、右側にパンされる画像センサに依存する。しかしながら、前記明るいレビュー画像の右側にあるクマの薄暗い画像に、注目されたい。前記薄暗いクマの位置は、前記プレビュー画像上に半透明の状態で重ねられた画像910に、一致する。いくつかの実施形態では、前記薄暗いクマは、プロセス600のブロック620またはプロセス500のブロック518によって、表示され得る。いくつかの他の実施形態では、前記明るいクマは、プロセス500のブロック522またはプロセス600のブロック630によって、表示され得る。前記2つの画像を透過するように重ね合わせることによって、有効な案内が、前記立体画像ペアの前記第2の画像を獲得する前に、前記画像センサをどのように位置づけるかに関して、提供される。
[0072] 立体視装置ディスプレイのこの実施形態が、また、方向インジケータ930および品質インジケータ940を含むことに、留意されたい。前記示されている実施形態では、前記方向インジケータ930は、更に右にパンする必要性を示している。前記品質インジケータは、低品質の立体画像ペアが、前記第2の画像が現在の画像センサの位置において獲得される場合に、もたらされることを示している。このことは、前記水平方向の品質バー840の特定の位置の上方にある小さな矢印によって示されている。
[0073] 図10は、図1の獲得制御モジュール170またはユーザー・インターフェース・モジュール165の一実施形態で動作するプロセス1000を示しているフローチャートである。プロセス1000は、開始状態1005において開始し、そして、ブロック1010に移行する。一実施形態では、ブロック1010は、第1の画像および前記現在のプレビューまたはリアルタイム画像間の水平視差を決定する、前記獲得制御モジュール170における命令群によって、実行される。代わって、前記獲得制御モジュール170は、いくつかの実施形態では2つの画像間の水平視差を決定するための命令群を含む、前記視差除去モジュール140におけるサブルーチンを呼び出し得る。
[0074] 次に、プロセス1000は、ブロック1020に移行し、方向指示のための最初の方向が、決定される。方向指示の一例は、図8の矢印830である。いくつかの実施形態は、図5に示されているように、プロセス500のブロック515において、または、図6に示されているように、プロセス600のブロック610において、画像1の獲得の後に、デフォルトで左の方向になり得る。他の実施形態は、デフォルトで右方向になり得る。しかしながら、いくつかの実施形態では、ひとたび前記画像センサが前記第1の画像を獲得するために使用される位置に対して、水平方向の位置を変えると、矢印830の方向は、前記第1の画像および前記現在のプレビューまたは実時間画像間の水平視差によって、決定され得る。ひとたび前記インジケータの方向が決定されると、プロセス1000が、前記インジケータの長さが決定されるブロック1030に移行する。いくつかの実施形態は、固定の長さのインジケータを維持し得、一方で、他の実施形態は、前記第1の獲得された画像および前記プレビューまたは実時間画像間の前記水平視差に基づいて、前記方向インジケータの長さを変え得る。前記方向インジケータの幅は、また、最適な水平視差および前記現在の水平視差間の距離に基づいて変わり得る。さらに、いくつかの実施形態は、前記方向インジケータの最大の幅および最小の幅を制限し得る。例えば、いくつかの実施形態では、前記方向インジケータの長さは、前記ディスプレイの水平方向の幅の75%に制限され得る。逆に、前記長さは、水平視差が最良に近いとき、より低い下限によって制限され得る。この長さは、前記ディスプレイのサイズによって決定され得、または、人間の目によって気づかれ易いサイズに限定され得る。いくつかの実施形態では、前記水平視差が最適に近づくとき、前記方向インジケータは、1つの形態から別の形態へと遷移し得る。例えば、いくつかの実施形態では、前記方向インジケータは、水平視差が最良でないときは、第2の写真が撮影可能であることを示す緑色の円形または他の緑色のインジケータによって示される緑色のライトに、矢印から遷移し得る。他の実施形態は、第2の画像を獲得するときに、緊急性の度合いを示すために、点滅するインジケータに遷移する。
[0075] ひとたび前記方向インジケータの方向および長さが決定されると、プロセス1000は、(存在するならば)いかなる古いインジケータも消され、新しいインジケータが、ブロック1020および1030で決定されるパラメータに基づいて表示される、ブロック1040に移行する。従って、前述のブロック1010ないし1040を実施する命令群を含むユーザー・インターフェース・モジュール165、または獲得制御モジュール170は、前記画像センサを移動させる方向を示す方向インジケータを表示するための一手段となる。
[0076] 次に、プロセス1000は、ブロック1050に移行し、そして前記現在の水平視差および最良の水平視差間のデルタが、特定の品質表示に、マップされる。一実施形態では、品質インジケータは、図8のアイテム850のようなものである。最良の水平視差は、視野の約1/30であることができる。かくして、水平視差がこの水準に達するとき、示されている図8の実施形態は、水平の品質バー850の上方の小さな矢印を、このバーの緑色の部分の上に位置づけるだろう。前記小さな矢印の右側の領域は、あまりに小さい水平視差を示しており、一方で、前記矢印の左側の領域は、次第に大きくなる水平視差を示しており、バーの左先端にある鮮赤色の領域は、第2の画像を獲得するためには最も悪い位置を示している。ひとたび水平視差の品質水準に対する正確なマッピングが行われると、プロセス1000は、(存在するならば)いかなる比較的古い品質インジケータも消され、新しい品質インジケータが表示されるブロック1060に、移行する。
[0077] 次に、プロセス1000は、ブロック1070に移行し、グリッド線(gridline)がスクリーン上に表示される。一実施形態では、前記グリッド線は、図8のアイテム840であり得る。前記グリッド線は、前記第1の画像および前記実時間またはプレビュー画像間の最適な水平視差を示している。最適な水平視差は、典型的に、ほぼ30分の1の視野において検出されるので、前記グリッド線の長さは、典型的に、前記ディスプレイの幅と比例するだろう。前記グリッド線が表示された後、プロセス1000は、終了状態1080に移行する。
[0078] 当業者は、ここに開示された実施に関連して説明されたさまざまな例示的な論理ブロック、モジュール、回路、およびプロセスブロックは、電子ハードウェア、コンピュータ・ソフトウェア、またはこれら両方の組み合わせとして実施され得ることをさらに理解するであろう。ハードウェアおよびソフトウェアのこの互換性を明確に例示するために、さまざまな例示的なコンポーネント、ブロック、モジュール、回路、およびブロックが、一般的にそれらの機能の観点から、上に説明された。このような機能が、ハードウェアまたはソフトウェアとして実施されるかは、システム全体に課せられる設計制約および特定のアプリケーションに依存する。当業者は、特定のアプリケーションごとに多様な方法で説明された機能を実施し得るが、このような実施の決定は、本発明の範囲からの逸脱の原因となるものとして解釈されるべきでない。一部の当業者は、一部分または一部が全体より少ないか全体と同じであるものを含むことを、認識するだろう。例えば、画素のコレクション(collection of pixels)の一部分は、これらの画素のサブコレクションを指し得る。
[0079] ここに開示された実施に関連して説明されたさまざまな例示的な論理ブロック、モジュール、および回路は、汎用プロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールド・プログラマブル・ゲート・アレイ(FPGA)または他のプログラマブル論理デバイス、離散ゲートまたはトランジスタ論理、ディスクリート・ハードウェア・コンポーネント、または、ここに説明される機能を実施するように設計されたこれら任意の組み合わせとともに実施または実行され得る。汎用プロセッサは、マイクロ・プロセッサであり得、しかし代案では、プロセッサは、任意の従来のプロセッサ、コントローラ、マイクロ・コントローラ、またはステート・マシン(state machine)であり得る。プロセッサは、また、コンピューティング・デバイスの組み合わせ、たとえば、DSPと、1つのマイクロ・プロセッサ、複数のマイクロ・プロセッサ、DSPコアと結合された1つ以上のマイクロ・プロセッサとの組み合わせ、またはその他任意のこのような構成として、実施され得る。
[0080] ここで開示された実施に関連して説明された方法または処理のブロックは、直接的にハードウェアにおいて、プロセッサによって実行されるソフトウェア・モジュールにおいて、またはこれら2つの組み合わせにおいて、具現化され得る。ソフトウェア・モジュールは、RAMメモリー、フラッシュ・メモリー、ROMメモリー、EPROMメモリー、EEPROMメモリー、レジスタ、ハード・ディスク、リムーバブル・ディスク、CD−ROM、または当該技術で周知の任意の他の形態の非一時的な記憶媒体に存在することができる。例示的なコンピュータ可読記憶媒体は、プロセッサがコンピュータ可読記憶媒体から情報を読み出し、コンピュータ可読記憶媒体に情報を書き込むことができるように、プロセッサに結合される。代案では、記憶媒体は、プロセッサに内蔵され得る。プロセッサおよび記憶媒体は、ASICに存在し得る。ASICは、ユーザー端末、カメラ、または他のデバイスに存在し得る。代案では、プロセッサおよび記憶媒体は、ユーザー端末、カメラ、または他のデバイスにおいてディスクリート・コンポーネントとして存在し得る。
[0081] ヘッディング(heading)は、参考のために、およびさまざまなセクションを位置づけることを助けるために、ここに含まれる。これらのヘッディングは、それについて説明された概念の範囲を限定するように意図されてはいない。このような概念は、明細書全体にわたって適用性を有し得る。
[0082] 開示された実施の先の説明は、いかなる当業者にも本発明を製造または使用することを可能にさせるために、提供されている。これらの実現に対するさまざまな変更は、当業者に容易に理解され、ここで定義される一般的な原理は、本発明の精神または範囲から逸脱することなく、他の実現に適用され得る。かくして、本発明は、ここに示された実現に限定されるように意図されず、ここに開示される原理および新規な特徴と一致する最も広い範囲を与えられるべきである。
なお、以下に、出願当初の特許請求の範囲に記載された発明を付記する。
[C1]
画像センサを介して第1の画像を獲得することと、
前記画像センサを介して第2の画像を獲得することと、
前記第1の画像および前記第2の画像間の垂直視差を決定することと、
前記第1の画像および前記第2の画像間の水平視差を決定することと、
前記第1の画像および前記第2の画像間の幾何学的歪みを決定することと、
前記第1の画像および前記第2の画像間の収束点を決定することと、
少なくとも1つの補正された画像を作成するために、少なくとも前記第1の画像または前記第2の画像に対して、前記垂直視差、前記水平視差、前記幾何学的歪み、前記収束点のうちの少なくとも1つに関する補正を適用することと、
前記補正された画像をデータ・ストアに保存することと
を含む、立体画像を獲得する方法。
[C2]
前記収束点は、深さの範囲および深さのヒストグラムに基づいて、決定される、C1に記載の方法。
[C3]
前記垂直視差を決定することは、行合計ベクトルの相互相関を含む、C1に記載の方法。
[C4]
前記垂直視差を決定することは、水平エッジ合計ベクトルの相互相関を含む、C1に記載の方法。
[C5]
前記補正された画像に基づいて立体画像ペアを生成することをさらに含む、C1に記載の方法。
[C6]
前記方法は、繰り返し実行される、C5に記載の方法。
[C7]
画像センサを介して第1の画像を獲得することと、
電子ディスプレイ上に方向インジケータを表示する、ここにおいて、前記方向インジケータは前記画像センサを移動させる方向を示す、ことと、
前記画像センサを介して第2の画像を獲得することと、
前記第1の画像および前記第2の画像に基づいて、立体画像を生成することを含む、立体画像を獲得する方法。
[C8]
電子ディスプレイの対応する部分に前記第1の画像の一部分を表示することと、
前記電子ディスプレイの対応する部分に前記画像センサからのプレビュー画像の一部分を表示することをさらに含むC7に記載の方法。
[C9]
電子ディスプレイ上に前記第1の画像の透過版を表示することと、
前記電子ディスプレイ上に前記画像センサからのプレビュー画像の透過版を表示することをさらに含むC7に記載の方法。
[C10]
高品質の画像を獲得するために必要とされる水平方向のシフトの第1のインジケーションを、電子ディスプレイ上に表示することをさらに含む、C7に記載の方法。
[C11]
前記第1のインジケーションは、グリッド線である、C10に記載の方法。
[C12]
前記第1のインジケーションは、ルーラーである、C10に記載の方法。
[C13]
動的に推定された品質インジケータを表示することをさらに含むC7に記載の方法。
[C14]
前記第1のインジケーションの色は、前記第1の画像およびプレビュー画像間の水平視差に基づく、C10に記載の方法。
[C15]
前記第2の画像は、制御の駆動に応答して獲得される、C7に記載の方法。
[C16]
電子画像センサと、
前記画像センサを制御するように構成されている電子プロセッサと、
前記画像センサを使用して第1の画像を獲得するように、
前記画像センサを使用して第2の画像を獲得するように、
前記第1の画像および前記第2の画像間の垂直視差を決定するように、
前記第1の画像および前記第2の画像間の水平視差を決定するように、
前記第1の画像および前記第2の画像間の幾何学的歪みを決定するように、
前記第1の画像および前記第2の画像間の収束点を決定するように、および、
前記垂直視差、前記水平視差、前記幾何学的歪み、前記収束点のうちの少なくとも1つに対する補正を、少なくとも1つの補正された画像を作成するために、少なくとも前記第1の画像または前記第2の画像に適用するように、構成されている制御モジュールと、
を備えた画像デバイス。
[C17]
前記制御モジュールは、前記補正された画像に基づいて立体画像ペアを作成するようにさらに構成されている、C16に記載のデバイス。
[C18]
前記制御モジュールは、行合計ベクトルの相互相関に基づいて前記垂直視差を決定するように構成されている、C16に記載のデバイス。
[C19]
前記制御モジュールは、水平エッジ合計ベクトルの相互相関に基づいて前記垂直視差を決定するように構成されている、C16に記載のデバイス。
[C20]
前記画像デバイスは、ワイヤレス電話ヘッドセットである、C16に記載のデバイス。
[C21]
前記制御モジュールは、前記第2の画像を自動的に獲得するように構成されている、C16に記載のデバイス。
[C22]
ユーザー駆動の制御をさらに備えており、前記制御モジュールは、前記ユーザー駆動の制御の第1の駆動に応答して、前記第1の画像を獲得するように、および前記ユーザー駆動の制御の第2の駆動に応答して、前記第2の画像を獲得するように、さらに構成されている、C16に記載のデバイス。
[C23]
画像センサと、
電子ディスプレイと、
前記画像センサおよび前記電子ディスプレイを制御するように構成されているプロセッサと、
前記画像センサを使用して第1の画像を獲得するように、
前記電子ディスプレイ上に方向インジケータを表示する、ここにおいて、前記方向インジケータは前記画像センサを移動させる方向を示す、ように、
前記画像センサを使用して第2の画像を獲得するように、および、
前記第1の画像および前記第2の画像に基づいて立体画像を生成するように、構成されている制御モジュールと、を備えた、立体画像を獲得するように構成されている画像デバイス。
[C24]
前記制御モジュールは、前記第1の画像および前記第2の画像間の水平視差を決定するようにさらに構成されており、前記方向インジケータの表示は、前記決定された水平視差に基づいている、C23に記載の画像デバイス。
[C25]
加速度計をさらに備え、前記方向インジケータの表示は、前記加速度計からの入力に基づいている、C23に記載の画像デバイス。
[C26]
前記制御モジュールは、前記電子ディスプレイ上に前記第1の画像の一部分を表示するようにさらに構成されている、C23に記載の画像デバイス。
[C27]
画像センサを使用して第1の画像を獲得することと、
前記画像センサを使用して第2の画像を獲得することと、
前記第1の画像および前記第2の画像間の垂直視差を決定することと、
前記第1の画像および前記第2の画像間の水平視差を決定することと、
前記第1の画像および前記第2の画像間の幾何学的歪みを決定することと、
前記第1の画像および前記第2の画像間の収束点を決定することと、
少なくとも1つの補正された画像を作成するために、少なくとも1つの補正された画像を作成するための少なくとも前記第1の画像または前記第2の画像に、前記垂直視差、前記水平視差、前記幾何学的歪み、前記収束点のうちの少なくとも1つに対する補正を適用することと、
を含む方法を、実行されたときに行う、プロセッサ実行可能命令群を含む、非一時的なコンピュータ可読媒体。
[C28]
行合計ベクトルの相互相関に基づいて前記垂直視差を決定する方法を、実行されたときに行う、プロセッサが実行可能な命令群をさらに含む、C27に記載のコンピュータ可読媒体。
[C29]
前記補正された画像に基づいて立体画像ペアを生成する方法を、実行されたときに行う、プロセッサ実行可能命令群をさらに含む、C27に記載のコンピュータ可読媒体。
[C30]
画像センサを使用して第1の画像を獲得することと、
前記画像センサを移動させる方向を示す方向インジケータを表示することと、
前記画像センサを使用して第2の画像を獲得することと、
前記第1の画像および前記第2の画像に基づいて、立体画像を生成することと、を含む方法を、実行されたときに行う、プロセッサ実行可能第1命令群を含む、非一時的なコンピュータ可読媒体。
[C31]
前記コンピュータ可読媒体は、電子ディスプレイの一部分に前記第1の画像の一部分を表示することと、前記電子ディスプレイの対応する部分に、プレビュー画像の一部分を表示することとの方法を、実行されたときに行う命令群をさらに含む、C30に記載のコンピュータ可読媒体。
[C32]
画像センサを介して第1の画像を獲得するための手段と、
前記画像センサを移動させる方向を示す方向インジケータを表示するための手段と、
前記画像センサを介して第2の画像を獲得するための手段と、
前記第1の画像および前記第2の画像に基づいて立体画像を生成するための手段と、を備えた画像デバイス。

Claims (24)

  1. 画像センサを介して第1の画像を獲得することと、
    電子ディスプレイの上側半分上に、前記画像センサからの現在のプレビュー画像または前記第1の画像の上側半分を表示することと、
    前記電子ディスプレイの下側半分上に、前記第1の画像または前記画像センサからの前記現在のプレビュー画像の下側半分を表示する、ここにおいて、前記上側半分および前記下側半分の表示は、前記電子ディスプレイ上に、前記第1の画像および前記現在のプレビュー画像のそれぞれの半分を表示する、ことと、
    子ディスプレイ上に水平の方向インジケータを表示する、ここにおいて、前記水平の方向インジケータは、前記画像センサを移動させる水平の方向を示す、ことと、
    前記画像センサを介して第2の画像を獲得することと、
    前記第1の画像および前記第2の画像に基づいて立体画像を生成することと
    を含む、画像センサによって立体画像を獲得するときにユーザーに援助を提供する方法。
  2. 高品質の立体画像を獲得するために必要とされる水平方向のシフトの第1のインジケーションを、前記電子ディスプレイ上に表示することをさらに含む、請求項1に記載の方法。
  3. 前記第1のインジケーションは、グリッド線である、請求項2に記載の方法。
  4. 前記第1のインジケーションは、ルーラーである、請求項2に記載の方法。
  5. 動的に推定された品質インジケータを表示することをさらに含む、請求項1に記載の方法。
  6. 前記第1のインジケーションの色は、前記第1の画像およびプレビュー画像間の水平視差に基づく、請求項2に記載の方法。
  7. 前記第2の画像は、制御の駆動に応じて獲得される、請求項1に記載の方法。
  8. 画像センサと、
    電子ディスプレイと、
    前記画像センサおよび前記電子ディスプレイを制御するように構成されているプロセッサと、
    前記画像センサを使用して第1の画像を獲得するように、
    電子ディスプレイの上側半分上に、前記画像センサからの現在のプレビュー画像または前記第1の画像の上側半分を表示するように、および、
    前記電子ディスプレイの下側半分上に、前記第1の画像または前記画像センサからの前記現在のプレビュー画像の下側半分を表示する、ここにおいて、前記上側半分および前記下側半分の表示は、前記電子ディスプレイ上に、前記第1の画像および前記現在のプレビュー画像のそれぞれの半分を表示する、ように、
    記電子ディスプレイ上に水平の方向インジケータを表示する、ここにおいて、前記水平の方向インジケータは前記画像センサを移動させる水平の方向を示す、ように、
    前記画像センサを使用して第2の画像を獲得するように、および、
    前記第1の画像および前記第2の画像に基づいて立体画像を生成するように、構成されている制御モジュールと、を備えた、立体画像を獲得するときにユーザーに援助を提供するように構成されている画像デバイス。
  9. 前記制御モジュールは、前記第1の画像および前記第2の画像間の水平視差を決定するようにさらに構成されており、前記方向インジケータの表示は、前記決定された水平視差に基づく、請求項8に記載の画像デバイス。
  10. 加速度計をさらに備え、前記方向インジケータの表示は、前記加速度計からの入力に基づく、請求項8に記載の画像デバイス。
  11. 画像センサを使用して立体画像を獲得するときにユーザーに援助を提供するための方法であって、
    前記画像センサを使用して第1の画像を獲得することと、
    電子ディスプレイの上側半分上に、前記画像センサからの現在のプレビュー画像または前記第1の画像の上側半分を表示することと、
    前記電子ディスプレイの下側半分上に、前記第1の画像または前記画像センサからの前記プレビュー画像の下側半分を表示する、ここにおいて、前記上側半分および前記下側半分の表示は、前記電子ディスプレイ上に、前記第1の画像および前記現在のプレビュー画像のそれぞれの半分を表示する、ことと、
    記画像センサを移動させる水平の方向を示す水平の方向インジケータを表示することと、
    前記画像センサを使用して第2の画像を獲得することと、および、
    前記第1の画像および前記第2の画像に基づいて、立体画像を生成することと
    を含む方法を、実行されたときに実施するプロセッサ実行可能命令群を含む、非一時的なコンピュータ可読媒体。
  12. 画像センサを介して第1の画像を獲得するための手段と、
    電子ディスプレイの上側半分上に、現在のプレビュー画像または前記第1の画像の上側半分を表示するための手段と、
    前記電子ディスプレイの下側半分上に、前記第1の画像または前記画像センサからの前記プレビュー画像の下側半分を表示する、ここにおいて、前記上側半分を表示するための手段および前記下側半分を表示するための手段は、前記電子ディスプレイ上に前記第1の画像および前記現在のプレビュー画像のそれぞれの半分をひとまとめにして表示する、手段と、
    記画像センサを移動させるための水平の方向を示す水平の方向インジケータを表示するための手段と、
    前記画像センサを介して第2の画像を獲得するための手段と、
    前記第1の画像および前記第2の画像に基づいて立体画像を生成するための手段
    を含む、立体画像を獲得するときにユーザーに援助を提供するための画像デバイス。
  13. 方向インジケータを表示するための前記手段は、矢印として前記方向インジケータを表示するように構成されており、前記矢印は、前記第2の画像が現在の画像デバイスの位置において獲得される場合に得られる立体の質を示すために、色を変え得る、請求項12に記載の画像デバイス。
  14. 方向インジケータを表示するための前記手段は、矢印として前記方向インジケータを表示するように構成されており、前記矢印の長さが、最適な水平視差を得るために必要とされる画像センサの移動の量に基づく、請求項12に記載の画像デバイス。
  15. 方向インジケータを表示するための前記手段は、前記第1の画像および前記プレビュー画像間の水平視差が最適の位置に達するときに、前記方向インジケータを、矢印から別のシンボルに遷移するように構成されている、請求項12に記載の画像デバイス。
  16. 方向インジケータを表示するための前記手段は、グリッド線として前記方向インジケータを表示するように構成されており、前記グリッド線は、前記第1の画像および前記プレビュー画像間の水平方向のシフトの最大量を示す、請求項12に記載の画像デバイス。
  17. 前記方向インジケータは矢印であり、前記方法は、前記第2の画像が前記現在の画像デバイスの位置において獲得される場合に得られる立体の質を示すために、前記矢印の色を変えることをさらに含む、請求項11に記載のコンピュータ可読媒体。
  18. 前記方向インジケータは、矢印であり、前記矢印の長さは、最適な水平視差を得るために必要とされる画像センサの移動の量に基づく、請求項11に記載のコンピュータ可読媒体。
  19. 前記第1の画像および前記プレビュー画像間の水平視差が最適の位置に達するときに、前記方向インジケータを、矢印から別のシンボルに遷移することをさらに含む、請求項11に記載のコンピュータ可読媒体。
  20. 前記方向インジケータは、グリッド線であり、前記グリッド線は、前記第1の画像および前記プレビュー画像間の水平方向のシフトの最大量を示す、請求項11に記載のコンピュータ可読媒体。
  21. 前記制御モジュールは、矢印として前記方向インジケータを表示するように構成されており、前記矢印は、前記第2の画像が現在の画像デバイスの位置において獲得される場合に得られる立体の質を示すために、色を変え得る、請求項8に記載の画像デバイス。
  22. 前記制御モジュールは、矢印として前記方向インジケータを表示するように構成されており、前記矢印の長さが、最適な水平視差を得るために必要とされる画像センサの移動の量に基づく、請求項8に記載の画像デバイス。
  23. 前記制御モジュールは、前記第1の画像および前記プレビュー画像間の水平視差が最適の位置に達するときに、前記方向インジケータを、矢印から別のシンボルに遷移するように構成されている、請求項8に記載の画像デバイス。
  24. 前記制御モジュールは、グリッド線として方向インジケータを表示するように構成されており、前記グリッド線は、前記第1の画像および前記プレビュー画像間の水平方向のシフトの最大量を示す、請求項8に記載の画像デバイス。
JP2014525088A 2011-08-12 2012-08-06 立体画像ペアを獲得するためのシステムおよび方法 Active JP6042434B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/208,838 2011-08-12
US13/208,838 US9191649B2 (en) 2011-08-12 2011-08-12 Systems and methods to capture a stereoscopic image pair
PCT/US2012/049754 WO2013025391A2 (en) 2011-08-12 2012-08-06 Systems and methods to capture a stereoscopic image pair

Publications (2)

Publication Number Publication Date
JP2014527756A JP2014527756A (ja) 2014-10-16
JP6042434B2 true JP6042434B2 (ja) 2016-12-14

Family

ID=46642659

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014525088A Active JP6042434B2 (ja) 2011-08-12 2012-08-06 立体画像ペアを獲得するためのシステムおよび方法

Country Status (6)

Country Link
US (1) US9191649B2 (ja)
EP (2) EP2955916A1 (ja)
JP (1) JP6042434B2 (ja)
KR (1) KR101958044B1 (ja)
CN (1) CN103733617B (ja)
WO (1) WO2013025391A2 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103026716A (zh) * 2010-07-27 2013-04-03 松下电器产业株式会社 摄像装置
KR101773616B1 (ko) * 2011-05-16 2017-09-13 엘지디스플레이 주식회사 영상처리방법과 이를 이용한 입체영상 표시장치
US9402065B2 (en) 2011-09-29 2016-07-26 Qualcomm Incorporated Methods and apparatus for conditional display of a stereoscopic image pair
US20130107008A1 (en) * 2011-10-31 2013-05-02 Nokia Corporation Method, apparatus and computer program product for capturing images
KR101873747B1 (ko) * 2011-12-27 2018-07-03 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR101918030B1 (ko) * 2012-12-20 2018-11-14 삼성전자주식회사 하이브리드 멀티-뷰 랜더링 방법 및 장치
CN104113684B (zh) * 2013-04-15 2017-09-22 宏达国际电子股份有限公司 控制方法及电子装置
CN105143816B (zh) * 2013-04-19 2018-10-26 凸版印刷株式会社 三维形状计测装置、三维形状计测方法及三维形状计测程序
DE102013014536B4 (de) * 2013-09-03 2015-07-09 Sew-Eurodrive Gmbh & Co Kg Verfahren zur Übertragung von Information und Vorrichtung zur Durchführung des Verfahrens
CN103945207B (zh) * 2014-04-24 2015-09-02 浙江大学 一种基于视点合成的立体图像垂直视差消除方法
CN105306921A (zh) * 2014-06-18 2016-02-03 中兴通讯股份有限公司 一种基于移动终端的三维照片拍摄方法及移动终端
US10089396B2 (en) * 2014-07-30 2018-10-02 NthGen Software Inc. System and method of a dynamic interface for capturing vehicle data
US20180007345A1 (en) * 2015-01-16 2018-01-04 Imra Europe S.A.S. Self-rectification of stereo camera
EP3089449B1 (en) 2015-04-30 2020-03-04 InterDigital CE Patent Holdings Method for obtaining light-field data using a non-light-field imaging device, corresponding device, computer program product and non-transitory computer-readable carrier medium
US9813621B2 (en) * 2015-05-26 2017-11-07 Google Llc Omnistereo capture for mobile devices
US10341543B2 (en) * 2016-04-28 2019-07-02 Qualcomm Incorporated Parallax mask fusion of color and mono images for macrophotography
CN107046638A (zh) * 2016-12-30 2017-08-15 无锡易维视显示技术有限公司 单摄像头的3d影像拍摄方法
CN110520768B (zh) 2017-06-05 2021-10-22 上海科技大学 高光谱光场成像方法和系统
JP2019057840A (ja) * 2017-09-21 2019-04-11 トヨタ自動車株式会社 撮像装置
US11721010B2 (en) 2019-09-22 2023-08-08 Openlane, Inc. Vehicle self-inspection apparatus and method

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4754327A (en) 1987-03-20 1988-06-28 Honeywell, Inc. Single sensor three dimensional imaging
US4966436A (en) 1987-04-30 1990-10-30 Christopher A. Mayhew Apparatus for obtaining images for use in displaying a three-dimensional
US5157484A (en) 1989-10-23 1992-10-20 Vision Iii Imaging, Inc. Single camera autosteroscopic imaging system
JPH08262527A (ja) * 1995-03-24 1996-10-11 Canon Inc カメラ
WO1998003021A1 (en) * 1996-06-28 1998-01-22 Sri International Small vision module for real-time stereo and motion analysis
US5883695A (en) 1997-09-19 1999-03-16 Paul; Eddie Method and apparatus for producing stereoscopic images with single sensor
GB9810553D0 (en) 1998-05-15 1998-07-15 Tricorder Technology Plc Method and apparatus for 3D representation
AU2001268416A1 (en) * 2000-06-15 2001-12-24 Auckland Uniservices Limited Basis functions of three-dimensional models for compression, transformation and streaming
JP2003244727A (ja) * 2002-02-13 2003-08-29 Pentax Corp ステレオ画像撮像装置
GB2405764A (en) * 2003-09-04 2005-03-09 Sharp Kk Guided capture or selection of stereoscopic image pairs.
CN1998153A (zh) 2004-05-10 2007-07-11 辉达公司 用于视频数据的处理器
JP2006005417A (ja) * 2004-06-15 2006-01-05 Canon Inc 撮影装置
US20070248260A1 (en) * 2006-04-20 2007-10-25 Nokia Corporation Supporting a 3D presentation
JP4712661B2 (ja) * 2006-09-22 2011-06-29 オリンパスイメージング株式会社 撮像装置
JP4828486B2 (ja) * 2007-08-14 2011-11-30 富士フイルム株式会社 デジタルカメラ、撮影方法及び撮影プログラム
KR100962329B1 (ko) * 2009-02-05 2010-06-10 연세대학교 산학협력단 스테레오 카메라 영상으로부터의 지면 추출 방법과 장치 및이와 같은 방법을 구현하는 프로그램이 기록된 기록매체
US20100316282A1 (en) 2009-06-16 2010-12-16 Hope Clinton B Derivation of 3D information from single camera and movement sensors
US20110025830A1 (en) 2009-07-31 2011-02-03 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation
KR101661969B1 (ko) 2009-11-02 2016-10-04 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
US10080006B2 (en) * 2009-12-11 2018-09-18 Fotonation Limited Stereoscopic (3D) panorama creation on handheld device
JP2013062557A (ja) * 2010-01-14 2013-04-04 Panasonic Corp デジタル撮影装置及び、3d撮影方法

Also Published As

Publication number Publication date
KR20140053313A (ko) 2014-05-07
CN103733617B (zh) 2015-11-25
EP2955916A1 (en) 2015-12-16
CN103733617A (zh) 2014-04-16
US9191649B2 (en) 2015-11-17
US20130038701A1 (en) 2013-02-14
JP2014527756A (ja) 2014-10-16
EP2742696A2 (en) 2014-06-18
WO2013025391A2 (en) 2013-02-21
EP2742696B1 (en) 2015-11-04
KR101958044B1 (ko) 2019-03-13
WO2013025391A3 (en) 2013-04-11

Similar Documents

Publication Publication Date Title
JP6042434B2 (ja) 立体画像ペアを獲得するためのシステムおよび方法
CA2941143C (en) System and method for multi-focus imaging
US10171791B2 (en) Methods and apparatus for conditional display of a stereoscopic image pair
US9313419B2 (en) Image processing apparatus and image pickup apparatus where image processing is applied using an acquired depth map
US9516223B2 (en) Motion-based image stitching
JP2018510324A (ja) 複数技術奥行きマップ取得および融合のための方法および装置
KR20130030780A (ko) 3 차원 이미지 프로세싱
CN105120172A (zh) 一种移动终端前后置摄像头拍照方法及移动终端
US9838594B2 (en) Irregular-region based automatic image correction
US9824261B2 (en) Method of face detection, method of image processing, face detection device and electronic system including the same
WO2017166076A1 (zh) 一种确定对焦窗的方法、装置及设备
WO2018014517A1 (zh) 一种信息处理方法、装置及存储介质
CN106922181B (zh) 方向感知自动聚焦
JP2012034069A (ja) 画像処理装置、および画像処理プログラム
JP6486453B2 (ja) 画像処理装置、画像処理方法、プログラム
JP2012235257A (ja) 撮影装置
JPWO2015141185A1 (ja) 撮像制御装置、撮像制御方法およびプログラム
JP2014134723A (ja) 画像処理装置、画像処理方法およびプログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161109

R150 Certificate of patent or registration of utility model

Ref document number: 6042434

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250