JP6571779B2 - 立体画像化 - Google Patents

立体画像化 Download PDF

Info

Publication number
JP6571779B2
JP6571779B2 JP2017534812A JP2017534812A JP6571779B2 JP 6571779 B2 JP6571779 B2 JP 6571779B2 JP 2017534812 A JP2017534812 A JP 2017534812A JP 2017534812 A JP2017534812 A JP 2017534812A JP 6571779 B2 JP6571779 B2 JP 6571779B2
Authority
JP
Japan
Prior art keywords
image
image sensor
area
lens
readout
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017534812A
Other languages
English (en)
Other versions
JP2018517310A (ja
Inventor
ウキル サウミク
ウキル サウミク
アンナサガー ゴビンダラオ クリシュナ
アンナサガー ゴビンダラオ クリシュナ
ゴパル プトラヤ グルラジ
ゴパル プトラヤ グルラジ
Original Assignee
ノキア テクノロジーズ オサケユイチア
ノキア テクノロジーズ オサケユイチア
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ノキア テクノロジーズ オサケユイチア, ノキア テクノロジーズ オサケユイチア filed Critical ノキア テクノロジーズ オサケユイチア
Publication of JP2018517310A publication Critical patent/JP2018517310A/ja
Application granted granted Critical
Publication of JP6571779B2 publication Critical patent/JP6571779B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Description

本発明の実施例および非限定的実施形態は、立体画像のためのデジタル画像データの捕捉に関する。
立体カメラを用いたデジタル画像化は、同じシーンを描く2つ以上の画像に基づいて導出可能な深度情報に部分的に基づいて3次元(3D)画像を捕捉および/または生成することを可能にする。実生活のデジタル立体カメラにおいては、人間の視覚をモデリングするように構成された2つ以上の画像センサーが、1つのシーンのそれぞれのデジタル画像を捕捉するために使用される。しかしながら、実用的制約のため、立体カメラの2つの画像センサーにより捕捉される画像の視野(FOV)は正確に同じではない。その結果、第1の画像センサーを用いて捕捉された第1の画像の画像コンテンツの一部は、第2の画像センサーを用いて捕捉された第2の画像の画像コンテンツの中に含まれない。この点に関する典型的な例において、第1および第2の画像センサー(それぞれのレンズ・アセンブリを伴う)は、人間の目の間の距離に対応する距離だけ離されて、互いに隣接して配置されている。画像化すべきシーンとの関係における2つの画像センサーの異なる位置に起因して、第1の画像の最左部分内の画像コンテンツの一部は、第2の画像内に含まれず、一方、第2の画像の最右部分内の画像コンテンツの一部は、第1の画像内に含まれない。
シーンを表現するデジタル3D画像を生成するのに必要とされる深度情報は、そのシーンを描く2つ以上の画像に基づいて抽出可能な視差情報に基づいて導出することができる。しかしながら、上述の第1および第2の画像センサーの例においては、第1および第2の画像の一方のみにおいて描かれるシーン部分についての視差情報を導出する可能性は全く存在せず、したがって、これらの画像部分についての結果として得られる深度情報は、不正確であるかまたは完全に欠如しており、そのため場合によっては、画質が劣化した3D画像がもたらされることになる。
一例示的実施形態によると、画像データを捕捉するための立体画像捕捉手段であって、第1のレンズを介して光を受光するように構成された第1の画像センサーを備えた第1の画像化サブシステムと、第2のレンズを介して光を受光するように構成された第2の画像センサーを備えた第2の画像化サブシステムとを備え、前記第1および第2の画像化サブシステムは、前記第1および第2のレンズの光学軸が互いに平行になるように構成されている、立体画像捕捉手段と、前記第1および第2の画像センサーのそれぞれの感光性領域から画素値を読み取るための画像獲得手段であって、第1の画像センサー上の第1の読み出し領域から第1の画像についての画素値を読み取り、第2の画像センサー上で第2の読み出し領域から第2の画像についての画素値を読み取り、第1および第2の画像センサーのうちの少なくとも1つの上のそれぞれの読み出し領域に隣接する感光性領域の少なくとも一部分から、サポート・データについての画素値を読み取るように構成されている画像獲得手段と、第1の画像、第2の画像および前記サポート・データについて読み取られた前記画素値に基づいて前記第1および第2の画像に関係する視差情報を導出するための画像処理手段と;を備えた、装置が提供されている。
別の例示的実施形態によると、画像データを捕捉するための立体画像捕捉手段を容易にするステップであって、前記立体画像捕捉手段が、第1のレンズを介して光を受光するように構成された第1の画像センサーを備えた第1の画像化サブシステムと、第2のレンズを介して光を受光するように構成された第2の画像センサーを備えた第2の画像化サブシステムとを備え、前記第1および第2の画像化サブシステムは、前記第1および第2のレンズの光学軸が互いに平行になるように構成されている、ステップと、前記第1および第2の画像センサーのそれぞれの感光性領域から画素値を読み取るステップであって、第1の画像センサー上の第1の読み出し領域から第1の画像についての画素値を読み取ることと、第2の画像センサー上で第2の読み出し領域から第2の画像についての画素値を読み取ることと、第1および第2の画像センサーのうちの少なくとも1つの上のそれぞれの読み出し領域に隣接する感光性領域の少なくとも一部分から、サポート・データについての画素値を読み取ること、を含むステップと、第1の画像、第2の画像および前記サポート・データについて読み取られた前記画素値に基づいて前記第1および第2の画像に関係する視差情報を導出するステップと、を含む方法が提供されている。
別の例示的実施形態によると、画像データを捕捉するためのデジタル画像化システムであって、第1のレンズを介して光を受光するように構成された第1の画像センサーを備えた第1の画像化サブシステムと、第2のレンズを介して光を受光するように構成された第2の画像センサーを備えた第2の画像化サブシステムとを備え、前記第1および第2の画像化サブシステムは、前記第1および第2のレンズの光学軸が互いに平行になるように構成されている、デジタル画像化システムと、前記画像処理手段の動作を制御するためのコントローラと、を含む装置が提供されている。該コントローラは、第1の画像センサー上の第1の読み出し領域から第1の画像についての画素値を読み取り、第2の画像センサー上で第2の読み出し領域から第2の画像についての画素値を読み取ることと、第1および第2の画像センサーのうちの少なくとも1つの上のそれぞれの読み出し領域に隣接する感光性領域の少なくとも一部分から、サポート・データについての画素値を読み取ることと、を含む前記第1および第2の画像センサーのそれぞれの感光性領域から画素値を読み取るように、および第1の画像、第2の画像および前記サポート・データについて読み取られた前記画素値に基づいて前記第1および第2の画像に関係する視差情報を導出するように、構成されている。
別の例示的実施形態によると、少なくとも1つのプロセッサと、命令プログラムを記憶するメモリと、を含む装置において、命令プログラムを記憶するメモリは、少なくとも、1つのプロセッサを用いて、少なくとも、画像データを捕捉するための立体画像捕捉手段を容易にするステップであって、前記立体画像捕捉手段が、第1のレンズを介して光を受光するように構成された第1の画像センサーを備えた第1の画像化サブシステムと、第2のレンズを介して光を受光するように構成された第2の画像センサーを備えた第2の画像化サブシステムとを備え、前記第1および第2の画像化サブシステムは、前記第1および第2のレンズの光学軸が互いに平行になるように構成されている、ステップと、前記第1および第2の画像センサーのそれぞれの感光性領域から画素値を読み取るステップであって、第1の画像センサー上の第1の読み出し領域から第1の画像についての画素値を読み取り、第2の画像センサー上で第2の読み出し領域から第2の画像についての画素値を読み取ることと、第1および第2の画像センサーのうちの少なくとも1つの上のそれぞれの読み出し領域に隣接する感光性領域の少なくとも一部分から、サポート・データについての画素値を読み取ること、を含むステップと、第1の画像、第2の画像および前記サポート・データについて読み取られた前記画素値に基づいて前記第1および第2の画像に関係する視差情報を導出するステップと、を行うために装置を構成するように構成されている、装置が提供されている。
別の例示的実施形態によると、コンピュータ可読プログラム・コードを含むコンピュータ・プログラムにおいて、前記プログラム・コードが計算装置上で実行された場合に、画像データを捕捉するための立体画像捕捉手段を容易にするステップであって、前記立体画像捕捉手段が、第1のレンズを介して光を受光するように構成された第1の画像センサーを備えた第1の画像化サブシステムと、第2のレンズを介して光を受光するように構成された第2の画像センサーを備えた第2の画像化サブシステムとを備え、前記第1および第2の画像化サブシステムは、前記第1および第2のレンズの光学軸が互いに平行になるように構成されている、ステップと、前記第1および第2の画像センサーのそれぞれの感光性領域から画素値を読み取るステップであって、第1の画像センサー上の第1の読み出し領域から第1の画像についての画素値を読み取ることと、第2の画像センサー上で第2の読み出し領域から第2の画像についての画素値を読み取ることと、第1および第2の画像センサーのうちの少なくとも1つの上のそれぞれの読み出し領域に隣接する感光性領域の少なくとも一部分から、サポート・データについての画素値を読み取ること、を含むステップと、第1の画像、第2の画像および前記サポート・データについて読み取られた前記画素値に基づいて前記第1および第2の画像に関係する視差情報を導出するステップと、を行わせるように構成された、コンピュータ・プログラム含む方法が提供されている。
以上で言及されたコンピュータ・プログラムは、例えば、上にプログラム・コードが記憶された少なくとも1つのコンピュータ可読非一時的媒体を含むコンピュータ・プログラム・プロダクトとして、揮発性または不揮発性コンピュータ可読記録媒体上に具体化されることができ、このプログラムは、装置により実行された場合、該装置に少なくとも、本発明の例示的実施形態に係るコンピュータ・プログラムについて以上に記載の動作を行わせる。
本特許出願において提示されている本発明の実施形態は、添付されたクレームの適用可能性に対する限定を加えるものとして解釈されるべきものではない。「to comprise(を備える、含む)」なる動詞およびその派生語は、本特許出願において、列挙されていない特徴の存在も除外しない開放的限定として使用されている。以下で説明する特徴は、明示的に別段の定めをした場合を除き、相互に自由に組合せ可能である。
本発明のいくつかの特徴が、添付クレーム中で提示されている。しかしながら、本発明の実施形態は、その構成およびその動作方法の両方に関して、その追加の目的および利点と共に、添付図面と関連付けて読んだ場合にいくつかの例示的実施形態の以下の説明から最も良く理解されるものである。
本発明の実施形態は、添付図面の図中に、限定としてではなく一例として示されている。
一例示的実施形態に係る画像化システムのいくつかの構成要素を概略的に例示する。 一例示的実施形態に係る画像センサーの露光領域の使用を概略的に例示する。 一例示的実施形態に係る画像センサーの露光領域の使用を概略的に例示する。 一例示的実施形態に係る電子デバイスを概略的に例示する。 一例示的実施形態に係る画像センサーの露光領域の使用を概略的に例示する。 一例示的実施形態に係る画像化システムのいくつかの構成要素を概略的に例示する。 一例示的実施形態に係る方法を例示する。
図1は、デジタル立体画像化用の画像データを捕捉するための例証用デジタル画像化システム100のいくつかの構成要素を概略的に例示する。画像化システム100は同様に、立体画像化手段または立体画像捕捉手段としても言及されている。図1は、第1のレンズ101、第2のレンズ102、第1の画像センサー103および第2の画像センサー104を伴う画像化システム100を示す。第1のレンズ101および第2のレンズ103は、その光学軸が互いから距離Bを置いて平行となるように、互いとの関係において構成されている。距離Bは、それが人間の目の間の距離(眼球内距離として知られる)を近似するように選択されることができ、あるいは、距離Bは、立体システムの深度分解能要件に基づいて選択されることができる。画像化システム100は、固定値(例えば平均眼球内距離または所要深度分解能に対応するもの)に設定された距離Bを伴う固定された構造を応用でき、または画像化システム100は、所望される眼球内距離と整合するようにまたは所要深度分解能を提供するように距離Bが調整可能である構造を利用することができる。
いくつかの実施形態において、画像捕捉手段の例は、画像/シーンの深度情報を得るために画像/シーンも捕捉する目的で互いに並置された2つのカメラを有するデバイスを含むことができる。例えば、デュアル・カメラ、アレイ・カメラなどである。
第1の画像センサー103は、第1の画像センサー103の露光を制御するために使用されるシャッターが開放されたときに光が感光性領域上に落ちることができるように、画像データの捕捉のための感光性領域が備わった第1の画像センサー103の表面が第1のレンズ101の光学軸に対して垂直になるような形で、第1のレンズ101から距離u1のところに配置される。類似のラインに沿って、第2の画像センサー104は、第2の画像センサー103の露光を制御するために使用されるシャッターが開放されたときに光が感光性領域上に落ちることができるように、感光性領域が備わった第2の画像センサー104の表面が第2のレンズ102の光学軸に対して垂直になるような形で、第2のレンズ102から距離u2のところに配置される。類似のラインに沿って、第2の画像センサー104は、距離u2は、典型的に距離u1と同じかまたは実質的に同じであるが、必ずしもそうであるわけではない。
図1の図は、第1のレンズ101と第2のレンズ102の光学軸の一平面を表現しているとみなすことができる。第1のレンズ101および第2のレンズ102は各々、(説明の簡潔さおよび編集上の明確さを期して)単レンズとして言及されているが、第1のレンズ101および第2のレンズ102は各々、光学軸が空間的に一致するように構成された1つ以上のレンズを含むそれぞれのレンズ・アセンブリを備えることができる。
第1のレンズ101および第1の画像センサー103の構成は、第1の画像化サブシステムの一部を構成するものとみなすことができ、一方、第2のレンズ102および第2の画像センサー104の構成は、第2の画像化サブシステムの一部を構成するものとみなすことができる。換言すると、第1の画像化サブシステムは第1のレンズ101および第1の画像センサー103を備え、第2の画像化サブシステムは、第2のレンズ102および第2の画像センサー104を備えている。第1および第2の画像化サブシステムは各々、図1の概略的図中に描かれていない構成要素の追加部分を備えることができる。
一例として、第1および第2の画像化サブシステムの各々は、それぞれの専用デジタル画像化モジュール(カメラ・モジュール)として提供されることができる。別の例として、第1および第2の画像化サブシステムを、単一のデジタル立体画像化モジュール(カメラ・モジュール)の形で一緒に提供することができる。デジタル画像化モジュールまたは単一のデジタル立体画像化モジュールは各々、コントローラ(例えばマイクロプロセッサ、マイクロコントローラなど)の制御下で動作させられる。
第1および第2の画像化サブシステムは、例えば、2つの画像化システムのレンズ、画像センサーおよび他の構成要素が同一のまたは実質的に同一の特性を有し、それらがそれぞれの画像化サブシステム内で同一のまたは実質的に同一の要領で(空間的に)構成されるように、同一の画像化サブシステムとして提供されることができる。この点に関する一例として、図1の実施例は、第1のレンズ101が第2のレンズ102と同一であり、第1の画像センサー103が第2の画像センサー104と同一であり、距離U1が距離U2と同一である同一の第1および第2の画像化サブシステムを描いている。
代替的には、画像化システム100において、同一でない画像化サブシステムを適用することができる。このようなシナリオにおいて、画像化サブシステムは、例えば、レンズ101、102の光学特性に関して、画像センサー103、104のサイズに関して、および/または距離u1およびu2に関して(および/またはレンズ101、102およびそれぞれの画像センサー103、104の他の態様の相対的(空間的)構成に関して)、異なる特徴を示すことができる。同一でない第1および第2の画像化サブシステムの利用が関与する一例示的実施形態について、本明細書の以下の部分で説明する。
画像センサー103、104のレンズに面した表面上の感光性領域は、感光性要素のアレイとして提供されることができる。感光性要素のアレイは、当該技術分野で知られている任意の好適な技術を用いて提供可能である。この点に関して例として、電荷結合素子(CCD)または活性画素センサー(APS)を応用することができる。感光性要素アレイは、それぞれのレンズ101、102を介して画像センサー103、104の感光性領域上に投影された画像を表す画素アレイを標示する信号を出力するように構成されている。感光性要素のアレイは、以下では露光領域として言及される。画像センサー103、104の露光領域の中心点は、典型的に、レンズ101、102の光学軸がそれぞれの画像センサー103、104と交差する点にその中心を有する。露光領域は典型的に、ただし必然的にではなく、矩形の領域である。第1の画像センサー103上の露光領域は、幅2*1および高さ2*1を有するものとみなすことができ、第2の画像センサー104上の露光領域は、幅2*2および高さ2*2を有するものとみなすことができる。露光領域内の感光性要素アレイは、必然的にではないものの典型的に、感光性要素の行および列の形で構成されている。画像センサー103、104は、画像センサー103、104上に投影される画像を表す信号を読み取ることのできる処理要素に対して電気的に結合される。画像センサー103、104から読み取られた信号は、それぞれの画像センサー103、104の露光領域の感光性要素の各々についてそれぞれの画素値を提供することができ、露光領域から得られた(例えば読み取られた)画素値のアレイが出力画像を構成する。
図2は、画像円と露光領域の関係の例を概略的に示す。画像円は、それぞれの画像センサー103、104のレンズに面する表面上に投影された通りのレンズ101、102を透過した光錐の横断面を表す。図2の図(a)は、画像円111により取り囲まれた露光領域112を描いている。画像円111と同心の露光領域112は、この実施例においては4:3の縦横比を表す幅2*iおよび高さ2*iを有する。図2の図(b)は、画像円111により取り囲まれこの画像円と同心である露光領域113を描いている。矩形の露光領域113は、16:9の縦横比を表す幅2*jおよび高さ2*jを有する。露光領域112および113の次元および/または縦横比は、第1および/または第2の画像センサー103、104の露光領域のために適用することのできる例として役立つ。図2の実施例において、露光領域112、113は各々、全体として、それぞれの読み出し領域として、すなわちそれぞれの出力画像についての画素値が読み取られる露光領域の一部分として応用可能である。読み出し領域を、クロップ領域(crop area、area of crop)と呼ぶこともできる。
図3は、露光領域114が画像円111により完全に取り囲まれていないアプローチの一実施例を概略的に例示する。このアプローチでは、各々が画像円111により完全に取り囲まれ画像円111と同心である多数の所定の読み出し領域のうちの選択された1つの読み出し領域を、出力画像についての画素値の獲得のために適用することができる。図3の実施例では、読み出し領域の2つの例、すなわち4:3の縦横比を有する出力画像についての画素値を読み取るために利用することのできる第1の読み出し領域122および16:9の縦横比を有する出力画像についての画素値を読み取るために利用することのできる第2の読み出し領域123が、画像円111の内側に描かれている。描かれている実施例の読み出し領域122および123を使用する代りに、イメージング・サークル111の内側の追加のおよび/または異なる読み出し領域を適用することができる。
図3を見ればわかるように、読み出し領域のための描かれた選択肢は各々、露光領域114の一部分を未使用状態に残す。すなわち読み出し領域122を使用する場合、読み出し領域122の左側および右側にある露光領域114のそれぞれの部分は、出力画像についての画素値を読み取るために使用されず、一方、読み取り領域123を使用する場合には、読み出し領域123の上下の露光領域114のそれぞれの部分は出力画像についての画素値を読み取るために使用されない。それでも、露光領域のこれらの未使用部分は、画像円111の内側にあり、したがって、それぞれのシャッターが開放しているとき、それぞれのレンズ101、102を介して光を受光する。一部の例示的実施形態においては、本明細書中でさらに詳細に後述されるように、出力画像の後続する処理のためのサポート・データとして、露光領域の1つ以上の未使用部分を応用することができる。
第1のレンズ101および第2のレンズ102は好ましくは、第1の画像センサー103および第2の画像センサー104のうちのそれぞれ一方の露光領域上に空間的に歪みのない画像を投影できるようにするそれぞれのレクチリニアー・レンズを含む。着目次元を横断する画像化サブシステムの視野(FOV)とも呼ばれるAOVは、以下の等式を用いて計算可能である。
Figure 0006571779
Figure 0006571779
ここで、等式(1a)中、α1は第1の画像化サブシステムについてのAOVを意味し、d1は、着目する方向における第1の画像センサー103の露光領域の外縁部と第1のレンズ101の中心線との間の距離(例えば露光領域の半幅w1または半高さh1のうちの一方)を意味し、一方、等式(1b)中、α2は第2の画像化サブシステムについてのAOVを意味し、d2は、問題の方向における第2の画像センサー104の露光領域の外縁部と第2のレンズ102の中心線との間の距離(例えば露光領域の半幅w2または半高さh2)を意味する。したがって、第1の画像センサーの露光領域の全体的次元は、2*1(例えば幅2*1または高さ2*1)であり、一方第2の画像センサー104の露光領域の全体的次元は、2*2(例えば幅2*2または高さ2*2)である。
我々はさらに、第1のレンズ101の焦点距離をf1で表し、第2のレンズ102の焦点距離をf2で表すことができる。第1の画像化構成を用いて遠位の物体の鮮明な画像の獲得を保証するために、第1のレンズ101と第1の画像センサー103の表面との間の距離u1は、レンズと物体の間の距離をv1として、そうでなければ1/f1=1/u1+1/v1というレンズの公式によって支配される無限遠における1つの物体についての第1のレンズ101の焦点距離f1に等しいものである必要がある。同様にして、第2の画像化構成を用いて遠位の物体の鮮明な画像を獲得するためには、第2のレンズ102と第2の画像センサー104の表面との間の距離u2は、そうでなければレンズの公式によって支配される無限遠における1つの物体についての第2のレンズ102の焦点距離f2に等しいものである必要がある。レンズ101、102から広い距離範囲内に存在し得る物体の鮮明な画像の獲得を可能にする目的で、距離u1およびu2は、例えば画像鮮明度の微調整を可能にするように調整可能であることができる。典型的には、このような構成において、距離u1およびu2は、1回の調整作業で距離u1および距離u2の両方がそれぞれのレンズ101、102の光学軸の方向で等しい量または実質的に等しい量だけ調整させられるように、一緒に調整可能である。
図1に示されている実施例を再び参照すると、記号e1は、図1に描かれている平面に沿って第1のレンズ101の光学軸から点105までの距離を意味する。この距離は、第1のレンズ101の光学軸の方向で第1のレンズ101から距離vのところにある物体のための第1の画像化サブシステムのAOVの外側限界を画定する。換言すると、第1のレンズ101の光学軸の方向でレンズ101から距離vのところで、物体は、図1に描かれている平面に沿って第1のレンズ101の光学軸からe1より遠くない場合、AOVの内側にあり、したがって第1の画像センサー103の露光領域内に投影される。しかしながら、点105にある物体は、第2の画像センサー104の露光領域内で投影されず、したがって、第2の画像化サブシステムのAOVの外側にある。
一般性を失うことなく、画像化システム100について水平の基線を仮定する場合(すなわち、画像化システム100のデフォルトの使用の向きにおいて第1および第2の画像化サブシステムが並置されている構成について)、我々は、e1を、第1のレンズ101から距離vにおけるAOVの半幅(例えば水平AOVの半分)に対応するものとみなすことができ、水平AOVは、次のようなものとして計算することができる:
Figure 0006571779
同様に、垂直の基線については(すなわち、画像化システム100のデフォルトの使用の向きにおいて第1および第2の画像化サブシステムが互いに上下に構成されている構成については)、我々は、e1を、第1のレンズ101から距離vにおけるAOVの半高さ(例えば垂直AOVの半分)に対応するものと仮定することができ、垂直AOVは、等式(2)を用いて計算することができる。
画像化システム100は、デジタル・カメラ、カムコーダ、携帯電話、メディア・プレーヤー・デバイス、タブレット・コンピュータ、ラップトップ型コンピュータ、携帯情報端末(PDA)、ポータブル・ナビゲーション・デバイス、ゲーミング・デバイスなどの電子デバイスの一部として利用されることができる。図4は、画像化システム100をホストするために利用できる例示的電子デバイス200のいくつかのコンポーネントを概略的に例示する。画像化システム100に加えて、デバイス200はさらに、プロセッサ216および、データおよびコンピュータ・プログラム・コードを記憶するためのメモリ215を含む。デバイス200はさらに、ユーザーからの入力を受信しおよび/またはユーザーに対して出力を提供するためのデバイス200のユーザー・インターフェースを提供するように、場合によってプロセッサ216およびコンピュータ・プログラム・コードの一部分と併せて構成されることができるユーザーI/O(入出力)コンポーネント218を備えている。プロセッサ216は、メモリ215内に記憶されたコンピュータ・プログラム・コードにしたがって、そして場合によってはさらにユーザー(I/O)コンポーネント218を介して受信されるユーザー入力にしたがって、デバイス200の動作を制御するように構成されることができる。図4では、画像化システム100とは別個のコンポーネントとして描かれているが、プロセッサ216およびI/Oコンポーネントは、部分的または全体として、画像化システム100の一部として提供されることができる。
メモリ215およびその中に記憶されたコンピュータ・プログラム・コードの一部分は、さらに、プロセッサ216と共に、画像化システム100の動作の少なくともいくつかの態様を制御するための制御機能の1つ以上の態様を提供するように構成されることができる。この点に関する少数の例として、制御機能は、図4中にプロセッサ216内の論理エンティティとして描かれている、シャッター制御手段220、画像パラメータ制御手段230および画像処理手段250を提供することができる。
いくつかの実施形態において、シャッター制御手段220は、画像センサーの露光を制御するためのデバイスおよび/またはソフトウェアであり得る。例えばレンズの前の機械的シャッター、またはセンサー画素に対する露光の持続時間を制御するためのソフトウェア・コードである。画像パラメータ手段230は、露光されたセンサー領域、読出しセンサー領域、焦点距離、開口サイズなどの、画像化システム全体のパラメータであり得る。いくつかの実施形態において、画像獲得手段240の例としては、画像画素としてセンサー内でシーン/画像強度を捕捉し、転送し、画像処理ユニットについての画素値を記憶するのを補助するために必要とされる追加の回路および/またはソフトウェアが含まれる。画像処理手段250の一例には、プロセッサが含まれるが、これに制限されない。
いくつかの実施形態において、画像獲得手段240の例としては、相補型金属酸化膜半導体(CMOS)センサー、電荷結合素子(CCD)センサー、量子薄膜センサー、または有機センサーが含まれる可能性がある。
シャッター制御手段220は、シャッター速度制御手段を含むことができる。シャッター制御手段220のいくつかの例は、画像化構成100の第1および第2の画像化サブシステムのための(シャッター速度とも呼ばれる)露光時間を選択するために、ソフトウェア内または機械的シャッター・デバイス内で露光持続時間を設定するために用いられるソフトウェア・モジュールを含む。露光時間の選択は、(周囲光の現在のレベルの測定などに基づいて)自動的に行うことができ、あるいは、デバイス200のユーザー・インターフェースを介して受信されたユーザーの選択にしたがって行うこともできる。さらなる変形形態として、固定された既定の露光時間を適用することができる。
それぞれの出力画像を捕捉した時点で両方の画像センサー103、104に対する同一のまたは実質的に同一の光透過を保証するため、両方の画像化サブシステムについて同じ露光値(EV)が選択されるように第1および第2の画像化サブシステムのための露光時間を合同で選択するように、シャッター速度制御手段を構成することができる。レンズ101および102が同じ焦点比を有する場合、露光時間の合同選択は、第1および第2の画像化サブシステムについて同じ露光時間を選択するステップを含むことができ、一方、異なる焦点比を有するレンズ101、102の場合には、合同選択は、それぞれの焦点比を考慮に入れて両方の画像化サブシステムのためのEVが同じであるかまたは実質的に同じになるように第1および第2の画像化サブシステムのために異なる露光時間を選択するステップを含むことができる。
別の実施例として、第1および第2の画像化サブシステムのための露光時間を別個に独立して選択するように、シャッター速度制御手段を構成することができる。露光時間の選択は自動で行うことができ、またはデバイス200のユーザー・インターフェースを介して受信したユーザー選択にしたがって行うこともできる。露光時間の別個の独立した選択は、第1および第2の画像化サブシステムのためのEVの個別調整の柔軟性を可能にするものの、このアプローチには同様に、それぞれの出力画像を捕捉した時点で第1の画像センサー103に対する光透過と第2の画像センサー104に対する光透過との間に好適なバランスが得られるような露光時間の選択を保証するためより多くの注意が必要とされる。
シャッター制御手段220は、第1および第2の画像化サブシステムのシャッターを開放するためのシャッター駆動手段を含むことができる。それぞれの画像化サブシステムについて現在選択されている露光時間によって定義される期間中第1および第2の画像化サブシステムのシャッターを合同で開放させるようにシャッター駆動手段を構成することができる。シャッター駆動手段の一例としては、シャッターの始動および終了プロセスを起動するのに使用されるハードウェアを含む。シャッターの開放を、例えばデバイス200のユーザー・インターフェースを介して受信されたユーザー指令によってトリガーすることができる。駆動制御手段は、第1および第2の画像センサー103、104が共にそれぞれのAOVを用いて同じシーンのそれぞれの出力画像を捕捉するようにこれらのセンサーを露光させるように構成されている。この点に関して、第1および第2の画像化サブシステムのために同じまたは実質的に同じ露光時間が適用される場合、2つの画像化サブシステムのシャッターの開放および閉鎖の両方を同時にまたは実質的に同時に行うように、シャッター駆動手段を構成することができる。異なる露光時間が第1および第2の画像化サブシステムについて適用される場合、より短い露光時間での画像化サブシステムについてのシャッターの開放状態が完全に(一時的に)もう一方の画像化サブシステムのためのシャッターの開放状態と重複するように、シャッターの開閉を制御するように、シャッター駆動手段を構成することができる。この点における実施例として、第1および第2の画像化サブシステムのシャッターを同時にまたは実質的に同時に開放させるように、または、第1および第2の画像化サブシステムのシャッターを同時にまたは実質的に同時に閉鎖させるように、シャッター駆動手段を構成することができる。
以下で説明される例示的実施形態によると、画像化システム100の画像化サブシステムは、同一または実質的に同一である。このような構成においては、少なくとも2つの所定の利用可能な読み出し領域の中から、第1の画像センサー103のための第1の読み出し領域および第2の画像センサー104のための第2の読み出し領域を選択するように、画像パラメータ制御手段230を構成することができる。例えばデバイス200のユーザー・インターフェースを介して受信されたユーザーの選択にしたがって選択を行うことができ、または、利用可能な読み出し領域のうちの既定の(例えば予め選択された)読み出し領域を利用することができる。選択のために利用可能である所定の読み出し領域は典型的に、ただし必然的にではなく、異なる縦横比の矩形の読み出し領域を含む。一例として、図3に関連して説明された読み出し領域122および123を、場合によっては1つ以上のさらなる読み出し領域と共に、選択のために利用することができる。画像獲得手段230は好ましくは、第1および第2の画像センサー103、104の両方のために、同一の読み出し領域を選択する。
その結果、第1および第2の読み出し領域は、それぞれの画像センサー103、104の露光領域を完全にカバーしておらず、各々の画像センサー103、104上に、読み出し領域に隣接して、すなわちそれぞれの読み出し領域の輪郭と露光領域の輪郭の間に、1つ以上の未使用読み出し領域の部分が存在する。このことは、一例として図3に関連して説明されている露光領域114および読み出し領域122および123を使用することによって、図5の中で概略的に描かれている。
図5では、図(a)は、読み出し領域122を利用した場合の露光領域114の未使用領域を標示している。すなわち、読み出し領域122の左縁と露光領域114の左縁の間に未使用領域122aが存在し、読み出し領域122の右縁と露光領域114の右縁の間に別の未使用領域122bが存在する(換言すると、読み出し領域122については、読み出し領域122の両側に未使用領域が存在する)。図(b)は、読み出し領域123を利用した場合の露光領域114の未使用領域を標示している。すなわち、読み出し領域123の上縁と露光領域114の上縁の間に未使用領域123cが存在し、読み出し領域123の下縁と露光領域114の下縁の間に別の未使用領域123dが存在する(換言すると、読み出し領域123については、読み出し領域123の上下に未使用領域が存在する)。
画像獲得手段240は、第1の画像センサー103から第1の画像データを、第2の画像センサー104から第2の画像データを、それぞれの画像化サブシステムの露光時間の完了後直ちにまたは実質的に直ちに読み取るように構成される。この点に関して、第1の画像センサー103のための選択された第1の読み出し領域から第1の画像についての画素値を読み取り、第2の画像センサー104のために選択された第2の読み出し領域から第2の画像についての画素値を読み取るように、画像獲得手段240を構成することができる。第1および第2の画像についての読み取られた画素値を、1つ以上の出力画像の導出および提供のため、および/または例えば第1および第2の画像に関係する視差情報の導出のための得られた画像データのさらなる処理のために、メモリ215内に記憶することができる。
画像獲得手段240はさらに、露光領域の少なくとも1つの未使用領域からサポ−ト・データを読み取るように構成され、この少なくとも1つの未使用領域は(第1の画像センサー103の露光領域上で)第1の読み出し領域に隣接し、および/または(第2の画像センサー104の露光領域上で)第2の読み出し領域に隣接している。この点に関して、第1の画像センサー103および/または第2の画像センサー104の露光領域の少なくとも1つのこのような未使用領域からサポ−ト・データについての画素値を読み取るように、画像獲得手段250を構成することができる。サポ−ト・データについての読み取られた画素値を、画像処理手段250によるさらなる使用のためにメモリ215内に記憶することができる。
一実施例として、第2のレンズ102の光学軸から最も遠い第1の画像センサー103の側(例えば第2の画像センサー104から最も遠くにある第2の画像センサー104の側)で第1の画像センサー103の露光領域の境界と第1の読み出し領域との間にある未使用領域からサポ−ト・データについての画素値の第1のセットを読み取るように、画像獲得手段240を構成することができる。サポ−ト・データについての画素値の第1のセットは、改善された形で画像処理手段250内の視差情報の導出を容易にする目的で第1の画像の画素値を拡張させるために使用可能である。
付加的にまたは代替的に、第1のレンズ101の光学軸から最も遠い第2の画像センサー104の側(例えば第1の画像センサー103から最も遠くにある第2の画像センサー104の側)で第2の画像センサー104の露光領域の境界と第2の読み出し領域との間にある未使用領域からサポ−ト・データについての画素値の第2のセットを読み取るように、画像獲得手段240を構成することができる。サポ−ト・データについての画素値の第2のセットは、さらに改善された形で画像処理手段250内の視差情報の導出を容易にする目的で第2の画像の画素値を拡張させるために使用可能である。
図5(a)に戻って参照すると、第1および第2の画像センサー103、104のために読み出し領域122を使用する場合、第1の画素値セットは、未使用領域122aからの画素値を含むことができ、第2の画素値セットは、未使用領域122bからの画素値を含むことができる(逆もまた同様)。未使用領域から読み取られた画素セットは、例えば、それぞれの未使用領域122a、122b内に含まれる全ての画素または、それぞれの読み出し領域に最も近いそれぞれの未使用領域122a、122b内の所定の数の画素列を含むことができる。このようなアプローチは、水平基線を利用するように構成された画像化システム100を使用する場合に、特に有利であり得る。
別の実施例として、図5(b)を参照すると、第1および第2の画像センサー103、104のために読み出し領域123を使用する場合、第1の画素値セットは、未使用領域123cからの画素値を含むことができ、第2の画素値セットは、未使用領域123dからの画素値を含むことができる(逆もまた同様)。未使用領域から読み取られた画素セットは、例えば、それぞれの未使用領域123c、123d内に含まれた全ての画素または、それぞれの読み出し領域に最も近いそれぞれの未使用領域123c、123d内の所定の数の画素行を含むことができる。このようなアプローチは、垂直基線を利用するように構成された画像化システム100を使用する場合に、特に有用であり得る。
未使用領域122a、122b、123c、123dの一部分は、画像円111の外側に延びていることから、これらの部分は典型的に充分な量の光を受光する保証がなく、したがってこれらの部分から読み取られた画素値は無効である可能性があり、(例えば信号処理手段250による)後続する処理において無視される可能性がある。
画像処理手段250は、第1の画像と第2の画像の間の視差情報を導出するように構成されることができる。この点に関して、第1の画像について読み取られた画素値、第2の画像について読み取られた画素値およびサポ−ト・データについて読み取られた画素値に基づいて第1および第2の画像に関係する視差情報を導出するように、画像処理手段250を構成することができる。
デバイス200の環境との関係における第1の画像化サブシステムおよび第2の画像化サブシステムの異なる位置に起因して、第1および第2の出力画像は、第1および第2の画像内で描写される撮影シーンのわずかに異なるビューを表す。詳細には、第1の出力画像内で描写されている撮影シーンに対するビューは、第2の出力画像内で描写されている撮影シーンの空間変位したバージョンであり(逆もまた同様)、ここで像平面内の空間変位の程度は、第1および第2の画像化サブシステムの特性、第1および第2のレンズ101、102の光学軸間の距離B、および描写された物体とレンズ101、102の平面との間の距離vに依存する。詳細には、レンズ101、102の平面から異なる距離にある物体は、像平面内の異なる空間変位を受け、これにより、捕捉されたシーンについての視差(ひいては深度)の計算が可能になる。画像および対応する深度のマップを考慮すると、あてはまる可能性のある一定数の後処理効果が存在し、例としては、ぼけ味(深度に応じたぼけによる人工的な浅い被写界深度)、前景分割/マット仕上げなどが含まれる。
したがって空間変位に起因して、画像特徴は、第2の画像の場合に比べて第1の画像において、異なる位置(例えば画像の中心との関係において)に現われる。像平面内の空間変位の程度を説明するために、視差情報の導出には、第1および第2の画像の画素についての視差マップを導出するステップが関与することができる。一例として、視差マップの導出には、第1の画像の各画素について第2の画像の対応する画素、すなわち考慮中の第1の画像の画素と同じ実世界特徴を描く第2の画像の画素を発見することおよび、考慮中の第1の画像の画素についての視差標示としてこれらの画素の位置の差異を使用することが関与することができる。当該技術分野においては、視差情報を導出するためのさまざまな技術が知られている。一例として、第1の画像の下位領域内の画素についての視差標示の発見には、例えば、正規化相関を最大化するかまたは第1の画像内の下位領域内の画素値と第2の画像内の類似の下位領域内の画素値との間の(二乗または絶対)差の和を最小化する変位(画素数として)を発見することが関与することができる。
しかしながら、空間変位に起因して、同一の形状およびサイズの読み出し領域の場合、第1の画像の第1の側(すなわち第2の画像センサー104に最も近い第1の画像センサー103の側に対応する側)の上の領域および、第1および第2の画像のうちのもう一方の画像内では全く描かれていない第2の画像の反対の側(すなわち第1の画像センサー103に最も近い第2の画像センサー104の側に対応する側の上)の別の領域が存在する。その結果として、第1の画像の画素値および第2の画像の画素値に基づいて導出される従来の視差マップは、第1および第2の画像のこれらの領域についての視差標示の計算を可能にしない。
この欠点を相殺するため、画像処理手段250は、拡張された第1の画像を作成するためにサポ−ト・データについての第1の画素値セットで第1の画像の画素値を拡張させ、および/または拡張された第2の画像を作成するためにサポートについての第2の画素値セットで第2の画像の画素値を拡張させるように構成される。拡張された第1の画像が利用可能である場合、画像処理手段250は、視差情報の導出において第1の画像の代りに、拡張された第1の画像を使用するように構成される。同様に、拡張された第2に画像が利用可能である場合、画像処理手段250は、視差情報の導出において第2の画像の代りに、拡張された第2の画像を使用するように構成される。換言すると、画像処理手段250は、拡張された第1の画像および/または拡張された第2の画像に基づいて、例えば視差マップなどの視差情報の導出を実施し、こうして、第1および第2の画像のうちのもう一方の画像内には含まれていない画像コンテンツを描く第1および/または第2の画像の領域の少なくとも一部についての視差標示の計算を可能にするように構成される。
第1の画像の拡張は、第2の画像内には描かれているものの第1の画像内には描かれていない画像コンテンツの少なくとも一部を取り囲むように、AOVを第1の画像のAOVから拡大する。同様にして、第2の画像の拡張は、第1の画像内には描かれているものの第2の画像には描かれていない画像コンテンツの少なくとも一部を取り囲むように、AOVを第2の画像のAOVから拡大する。拡張された第1の画像および/または拡張された第2の画像を視差情報の導出において使用することにより、第1および第2の画像の拡大された領域について正確な視差情報を導出することが可能になり、こうして、出力画像に比べて改善されたFOVを有する深度マップが可能にされる(こうして、深度マップを使用する画像のあらゆる編集を、改善されたFOVに適用することができる)。
結果として、第1の画像、第2の画像および、拡張された第1の画像および/または拡張された第2の画像に基づいて導出された視差マップに基づいて3D画像(立体画像)を作成するように、画像処理手段250を構成することができる。拡張された第1の画像および/または拡張された第2の画像に基づいて導出された視差マップを使用することで、深度マップが出力画像FOVの一部についてしか利用可能でないと考えられている場合とは異なり、出力画像に比べて改善されたFOVを有する深度マップの作成が可能となる。
以上では、同一の画像化サブシステムを使用する例示的実施形態のさまざまな態様および変形形態が説明された。しかしながら、この説明は、画像化サブシステムが厳密に同一でないものの、第1および第2の画像センサー103、104上の露光領域がそれぞれの読み出し領域を超えて延びているが形状およびサイズが同一または実質的に同一でない可能性のあるシナリオへと一般化される。
以下で説明される別の例示的実施形態では、第1および第2の画像化サブシステムは、第2の画像化サブシステムが少なくとも1つの次元において第1の画像化サブシステムのAOVにより可能にされた画像コンテンツを完全に取り囲むことができる程度まで、前記少なくとも1つの次元で第1の画像化サブシステムのAOVよりも第2の画像化サブシステムのAOVが大きくなるように、同一でない可能性がある。水平基線については、この少なくとも1つの次元は、少なくとも水平次元を含み、一方垂直基線については、少なくとも1つの次元は少なくとも垂直次元を含む。
この点における例として、図6は、図1の画像化システム100の変形形態である例示的画像化システム100’を概略的に例示する。画像化システム100’は、第1および第2の画像化サブシステムが同一でないという点で画像化システム100と異なる:第2の画像センサー104は、第1の画像センサー103よりも大きく(d2>d1)、距離u2は距離u1よりも小さい。d1、d2、u1およびu2を適切に選択することで、このようなアプローチは、第2の画像化サブシステムの画角(AOV)が第1の画像化サブシステムのAOVを完全にカバーすることができるようにする。図6に示されているように、画像化システム100’においては、(第1の画像化サブシステムのAOVの外側限界にある)点105にある物体が同様に第2の画像センサー104の露光領域上に投影され、したがって点105は第2の画像化サブシステムのAOV内にある。同じ最終目標には、例えば距離u1およびu2を同一または実質的に同一に保ちながら第2の画像センサー104を第1の画像センサーより大きくすること(d2>d1となるように)によってか、または画像センサー103、104(のサイズ)を同一または実質的に同一に保ちながら(例えばd2=d1となるように)、距離u2を距離u2より小さくすることによっても同様に達成することができる。
このような画像化システム100’については、例えば図2に関連して説明された実施例によると、第1の画像センサー103の露光領域を完全にカバーする、第1の画像化サブシステムのための固定された既定の第1の読み出し領域を使用するように、画像獲得手段240を構成することができる。一方で、第2の画像化サブシステムについては、第1の読み出し領域と形状およびサイズが同一である(既定の)第2の読み出し領域を利用するように、画像獲得手段240を構成することができる。
その上、(第2の画像センサー104の露光領域の上の)第2の読み出し領域に隣接する露光領域の少なくとも1つの未使用領域からサポ−ト・データを読み取るように、画像獲得手段240をさらに構成することができる。この点において、第2の画像センサー104の露光領域の少なくとも1つのこのような未使用領域からサポ−ト・データについての画素値を読み取るように、画像獲得手段250を構成することができる。サポ−ト・データについての読み取られた画素値を、画像処理手段250によるさらなる使用のために、メモリ215内に記憶することができる。この点における特定の実施例として、画像獲得手段240を、第1のレンズ101の光学軸から最も遠い第2の画像センサー104の側(例えば、第1の画像センサー103から最も遠い第2の画像センサー104の側)で第2の画像センサー104の露光領域の境界と第2の読み出し領域との間にある未使用領域からサポ−ト・データについての画素値セットを読み取るように、構成されることができる。
サポ−ト・データについてのこの画素値セットは、さらに改善された形で画像処理手段250内の視差情報の導出を容易にする目的で第2の画像の画素値を拡張するために使用可能である。このシナリオにおいては、拡張された第2の画像を作成するためにサポートについての画素値セットで第2の画像の画素値を拡張させ、以上で説明されたものと同様に拡張された第2の画像と第1の画像に基づいて、例えば視差マップなどの視差情報を導出するように、画像処理手段250を構成することができる。
第2の画像センサー104の露光領域を(第1の画像センサー103の露光領域に比べて)所望の次元で充分大きくするために、以下の考察を行うことができる。
図1および6に基づいて、次のように記すことができる。
Figure 0006571779
および
Figure 0006571779
等式(3)を等式(4)に代入することにより、次のように記すことができる。
Figure 0006571779
以下の関係式、
Figure 0006571779
Figure 0006571779
を使用することによって、等式(5)を次のように書き換えることができる。
Figure 0006571779
さらに同一の焦点距離f1およびf2を仮定すると、等式(6)は、以下のようになる:
Figure 0006571779
したがって、第2の画像化サブシステムが第1の画像化サブシステムにより捕捉された画像コンテンツを完全に取り囲むことができることを保証するために、少なくとも1つの次元(例えばその幅および/またはその高さ)での第1の画像センサー103の露光領域のサイズとの関係における第2の画像センサー104上の露光領域の最小サイズを導出するために、等式(7)を使用することができる。
図6は、例示的実施形態に係る方法300を例示している。この方法300は、ブロック310に標示されているように、立体画像捕捉手段100、100’を動作させるステップを含む。方法300はさらに、第1および第2の画像センサー103、104のそれぞれの感光性領域からの画素値を読み取るステップを含む。この読み取りステップは、ブロック320に標示されているような、第1の画像センサー103上の第1の読み出し領域から第1の画像についての画素値を読み取るステップと、ブロック320に標示されているような、第2の画像センサー104上の第2の読み出し領域から第2の画像についての画素値を読み取るステップと、ブロック340に標示されているような、第1および第2の画像センサー103、104のうちの少なくとも1つの上のそれぞれの読み出し領域に隣接する感光性領域の少なくとも一部分からサポ−ト・データについての画素値を読み取るステップと、を含む。該方法300はさらに、ブロック350に標示されているように、第1の画像、第2の画像および前記サポ−ト・データについて読み取られた前記画素値に基づいて、前記第1および第2の画像に関係する視差情報を導出するステップを含む。該方法300はさらに、第1および/または第2の画像について読み取られた画素と共に視差情報に基づいて3D画像(立体画像)を作成するステップと、作成された3D画像を出力するステップとを含むことができる。
ブロック310から350までに関連して説明されている方法ステップ(および考えられる任意の追加ステップ)は、例えば、画像化システム100、100’の動作のより詳細な説明において以上で説明されているように、多くの方法で具体化および/または変形されることができる。
図4に戻って参照すると、プロセッサ216は、メモリ215から読み取りメモリ215に書き込むように構成され、プロセッサ236は、メモリ235から読み取りメモリ235に書き込むように構成される。プロセッサ216は、単一の構成要素として描かれているが、プロセッサ216を1つ以上の別個の構成要素として実装することができる。同様にして、メモリ215は単一の構成要素として例示されているものの、1つ以上の別個の構成要素としてメモリ215を実装することができ、そのうちのいくつかまたは全ては集積型/着脱式であることができ、および/または永久/半永久/動的/キャッシュ記憶装置を提供することができる。
メモリ215は、プロセッサ216内にロードされた場合にデバイス200の動作を制御するコンピュータ実行可能命令を含むコンピュータ・プログラムを記憶することができる。一例として、コンピュータ・プログラムは1つ以上の命令の1つ以上のシーケンスを含むことができる。コンピュータ・プログラムを、コンピュータ・プログラム・コードとして提供することができる。プロセッサ216は、メモリ215から内部に含まれた1つ以上の命令の1つ以上のシーケンスを読み取ることによりコンピュータ・プログラムをロードし実行することができる。1つ以上の命令の1つ以上のシーケンスは、プロセッサ216により実行された場合に、画像化システム100、100’に関連して以上で記述された動作、プロシージャおよび/または機能をデバイス200に実施させるように構成されることができる。したがって、デバイス200は、少なくとも1つのプロセッサ216と、1つ以上のプログラムのためのコンピュータ・プログラム・コードを含む少なくとも1つのメモリとを含むことができ、少なくとも1つのメモリ215およびコンピュータ・プログラム・コードは、少なくとも1つのプロセッサ216を用いて、デバイス200に、画像化システム100に関連して以上で説明した動作、プロシージャおよび/または機能を行わせるように構成されている。
コンピュータ・プログラムは、コンピュータ・プログラム・プロダクト中に備えることができる。一例示的実施形態によると、コンピュータ・プログラム・プロダクトは、非一時的コンピュータ可読媒体を含むことができる。したがって、コンピュータ・プログラムは、例えば、上にプログラム・コードが記憶された少なくとも1つのコンピュータ可読非一時的媒体を備えたコンピュータ・プログラム・プロダクトとして提供されることができ、該プログラム・コードは、デバイス200により実行された場合、装置に少なくとも第1のデバイス110に関連して以上で説明された動作、プロシージャおよび/または機能を行わせる。コンピュータ可読非一時的媒体は、メモリ・デバイスまたは記録媒体、例えばCD−ROM、DVD、ブルーレイ・ディスクまたはコンピュータ・プログラムを有形で具体化する別の製造品を含むことができる。別の例として、コンピュータ・プログラムを高い信頼性で転送するように構成された信号として、コンピュータ・プログラムを提供することができる。
プロセッサに対する言及は、プログラマブル・プロセッサのみならず、専用回路、例えばフィールド・プログラマブル・ゲート・アレイ(FPGA)、特定用途向け回路(ASIC)、信号プロセッサなどを包含するものとして理解されるべきである。
以上の説明において記載された特徴は、明示的に記された組合せ以外の組合せで使用することができる。機能は、一定の特徴を基準にして説明されてきたが、これらの機能は、記載の如何に関わらず、他の特徴により行なわれることもできる。特徴は、一定の実施形態を基準にして説明されてきたが、これらの特徴は、同様に、記載の如何に関わらず他の実施形態にも存在することができる。

Claims (20)

  1. 画像データを捕捉するための立体画像捕捉手段を容易にするステップであって、前記立体画像捕捉手段が、第1レンズを介して光を受光するように構成された第1画像センサーを備えた第1画像化サブシステムと、第2レンズを介して光を受光するように構成された第2画像センサーを備えた第2画像化サブシステムとを備え、前記第1および第2画像化サブシステムは、前記第1および第2レンズの光学軸が
    互いに平行であるように構成されている、ステップと、
    前記第1および第2画像センサーのそれぞれの感光性領域から画素値を読み取るステップであって、前記第1画像センサーの上の第1読み出し領域から第1画像についての画素値を読み取ることと、前記第2画像センサーの上で第2読み出し領域から第2画像についての画素値を読み取ることと、前記第1および第2画像センサーのうちの少なくとも1つの上のそれぞれの読み出し領域に隣接する前記感光性領域の少なくとも一部分から、サポート・データについての画素値を読み取ることと、を含む、ステップと、
    前記第1画像、前記第2画像および前記サポート・データについて読み取られた前記画素値に基づいて前記第1および第2画像に関係する視差情報を導出するステップと、
    を含む方法であって、
    サポ−ト・データについての画素値を読み取るステップは、前記第1読み出し領域と、前記第2レンズの光学軸から最も遠い前記第1画像センサーの側の第1画像センサーの前記感光性領域の境界との間にある未使用領域から画素値を読み取るステップを含む、
    方法
  2. 前記第1および第2読み出し領域は、同一のサイズおよび縦横比を有する矩形の読み出し領域である、請求項1に記載の方法。
  3. 前記第1および第2読み出し領域の各々は、異なる縦横比を有する少なくとも2つの所定の矩形読み出し領域のうちの予め選択された1つである、請求項2に記載の方法。
  4. 異なる縦横比を有する前記少なくとも2つの所定の矩形読み出し領域は、4:3の前記縦横比を有する第1所定の読み出し領域と、16:9の前記縦横比を有する第2所定の読み出し領域とを含む、請求項3に記載の方法。
  5. 前記第1および第2画像化サブシステムは、レンズおよび画像センサーの同一の構成を備える、請求項1ないし4のいずれか1項に記載の方法。
  6. 前記第2画像化サブシステムによって可能にされる視野(FOV)は、少なくとも1つの次元で、前記第1画像化サブシステムにより可能にされるFOVを完全に包含する、請求項1ないし4のいずれか1項に記載の方法。
  7. 前記第2画像センサーの前記感光性領域は、前記第2画像センサーの前記感光性領域の上に投影される画像コンテンツが、前記少なくとも1つの次元において、前記第1画像センサーの前記感光性領域の上に投影される画像コンテンツを完全に包み込むように、前記少なくとも1つの次元で前記第1画像センサーの前記感光性領域よりも大きい、請求項6に記載の方法。
  8. 前記少なくとも1つの次元における前記第1画像センサーの前記感光性領域のサイズとの関係において、前記少なくとも1つの次元における前記第2画像センサーの前記感光性領域のサイズは、少なくとも、
    Figure 0006571779
    を用いて導出される最小サイズであり、
    ここで、
    1は前記第1画像センサーの前記感光性領域のサイズを表し、
    Bは前記第1および第2レンズの前記光学軸の間の距離を表し、
    1は前記第1レンズの焦点距離を表し、
    2は前記第2レンズの焦点距離を表し、
    vは、前記第1レンズと前記第1および第2画像内で描かれるべき現実世界の物体との間の想定された距離を表し、
    2は前記最小サイズを表す、
    請求項6に記載の方法。
  9. サポ−ト・データについての画素値を読み取るステップは、前記第2読み出し領域と、前記第1レンズの光学軸から最も遠い前記第2画像センサーの側の第2画像センサーの前記感光性領域の境界との間にある未使用領域から画素値を読み取るステップを含む、請求項1に記載の方法。
  10. 画像データを捕捉するための立体画像捕捉手段を容易にするコードであって、前記立体画像捕捉手段が、第1レンズを介して光を受光するように構成された第1画像センサーを備えた第1画像化サブシステムと、第2レンズを介して光を受光するように構成された第2画像センサーを備えた第2画像化サブシステムとを備え、前記第1および第2画像化サブシステムは、前記第1および第2レンズの光学軸が
    互いに平行であるように構成されている、コードと、
    前記第1および第2画像センサーのそれぞれの感光性領域から画素値を読み取るコードであって、前記第1画像センサーの上の第1読み出し領域から第1画像についての画素値を読み取るコードと、
    前記第2画像センサーの上で第2読み出し領域から第2画像についての画素値を読み取るコードと、
    前記第1および第2画像センサーのうちの少なくとも1つの上のそれぞれの読み出し領域に隣接する前記感光性領域の少なくとも一部分から、サポート・データについての画素値を読み取るコードと、を含む、コードと、
    前記第1画像、前記第2画像および前記サポート・データについて読み取られた前記画素値に基づいて前記第1および第2画像に関係する視差情報を導出するコードと、
    を備えるコンピュータ・プログラムであって、
    サポ−ト・データについての画素値を読み取るステップは、前記第1読み出し領域と、前記第2レンズの光学軸から最も遠い前記第1画像センサーの側の第1画像センサーの前記感光性領域の境界との間にある未使用領域から画素値を読み取るステップを含む、
    コンピュータ・プログラム
  11. 少なくとも1つのプロセッサと、命令プログラムを記憶するメモリと、を含む装置であって、
    前記命令プログラムを記憶する前記メモリは、前記少なくとも1つのプロセッサを用いて、該装置に、少なくとも、
    画像データを捕捉するための立体画像捕捉手段を容易にさせ、ここで、前記立体画像捕捉手段は、第1レンズを介して光を受光するように構成された第1画像センサーを備えた第1画像化サブシステムと、第2レンズを介して光を受光するように構成された第2画像センサーを備えた第2画像化サブシステムとを備え、
    前記第1および第2画像化サブシステムは、前記第1および第2レンズの光学軸が
    互いに平行であるように構成されており、
    前記第1および第2画像センサーのそれぞれの感光性領域から画素値を読み取らせ、ここで、該読み取らせることは、前記第1画像センサーの上の第1読み出し領域から第1画像についての画素値を読み取り、前記第2画像センサーの上で第2読み出し領域から第2画像についての画素値を読み取らせることと、前記第1および第2画像センサーのうちの少なくとも1つの上のそれぞれの読み出し領域に隣接する前記感光性領域の少なくとも一部分から、サポート・データについての画素値を読み取らせることとを含み、
    前記第1画像、前記第2画像および前記サポート・データについて読み取られた前記画素値に基づいて前記第1および第2画像に関係する視差情報を導出させるように構成される、装置であって、
    サポ−ト・データについての画素値を読み取るステップは、前記第1読み出し領域と、前記第2レンズの光学軸から最も遠い前記第1画像センサーの側の第1画像センサーの前記感光性領域の境界との間にある未使用領域から画素値を読み取るステップを含む、
    装置
  12. 前記第1および第2読み出し領域は、同一のサイズおよび縦横比を有する矩形の読み出し領域である、請求項11に記載の装置。
  13. 前記第1および第2読み出し領域の各々は、異なる縦横比を有する少なくとも2つの所定の矩形読み出し領域のうちの予め選択されたものである、請求項12に記載の装置。
  14. 異なる縦横比を有する前記少なくとも2つの所定の矩形読み出し領域は、4:3の前記縦横比を有する第1所定の読み出し領域と16:9の前記縦横比を有する第2所定の読み出し領域とを含む、請求項13に記載の装置。
  15. 前記第1および第2画像化サブシステムは、レンズおよび画像センサーの同一の構成を備える、請求項11ないし14のいずれか1項に記載の装置。
  16. 前記第2画像化サブシステムによって可能にされる視野(FOV)は、少なくとも1つの次元において、前記第1画像化サブシステムにより可能にされるFOVを完全に包含する、請求項11ないし14のいずれか1項に記載の装置。
  17. 前記第2画像センサーの前記感光性領域は、前記第2画像センサーの前記感光性領域の上に投影される画像コンテンツが前記少なくとも1つの次元において、前記第1画像センサーの前記感光性領域の上に投影される画像コンテンツを完全に包含するように、前記少なくとも1つの次元において前記第1画像センサーの前記感光性領域よりも大きい、請求項16に記載の装置。
  18. 前記少なくとも1つの次元において、前記第1画像センサーの前記感光性領域のサイズとの関係における前記少なくとも1つの次元において、前記第2画像センサーの前記感光性領域のサイズは、少なくとも、
    Figure 0006571779
    を用いて導出される最小サイズであり、
    ここで、
    1は前記第1画像センサーの前記感光性領域のサイズを表し、
    Bは前記第1レンズおよび前記第2レンズの前記光学軸の間の距離を表し、
    1は前記第1レンズの焦点距離を表し、
    2は前記第2レンズの焦点距離を表し、
    vは前記第1レンズと前記第1および第2画像内で描かれるべき現実世界の物体との間の想定された距離を表し、
    2は前記最小サイズを表す、
    請求項16に記載の装置。
  19. 前記装置は、前記第2レンズの光学軸から最も遠い前記第1画像センサーの側の第1画像センサーの前記第1読み出し領域と前記感光性領域の境界との間にある未使用領域からサポ−ト・データについての画素値を読み取るように構成されている、請求項11ないし18のいずれか1項に記載の装置。
  20. 前記装置は、前記第1レンズの光学軸から最も遠い前記第2画像センサーの側の前記第2画像センサーの前記第2読み出し領域と前記感光性領域の境界との間にある未使用領域からサポ−ト・データについての画素値を読み取るように構成される、請求項19に記載の装置。
JP2017534812A 2014-12-31 2015-12-08 立体画像化 Active JP6571779B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
IN6836/CHE/2014 2014-12-31
IN6836CH2014 2014-12-31
PCT/FI2015/050860 WO2016107964A1 (en) 2014-12-31 2015-12-08 Stereo imaging

Publications (2)

Publication Number Publication Date
JP2018517310A JP2018517310A (ja) 2018-06-28
JP6571779B2 true JP6571779B2 (ja) 2019-09-04

Family

ID=56284338

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017534812A Active JP6571779B2 (ja) 2014-12-31 2015-12-08 立体画像化

Country Status (5)

Country Link
US (1) US10425630B2 (ja)
EP (1) EP3241349A4 (ja)
JP (1) JP6571779B2 (ja)
CN (1) CN107211118B (ja)
WO (1) WO2016107964A1 (ja)

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB8623718D0 (en) 1986-10-02 1986-11-05 British Aerospace Real time generation of stereo depth maps
JPH08205200A (ja) 1995-01-27 1996-08-09 Olympus Optical Co Ltd 立体撮像装置
US6606406B1 (en) 2000-05-04 2003-08-12 Microsoft Corporation System and method for progressive stereo matching of digital images
JP2005099265A (ja) * 2003-09-24 2005-04-14 Fujinon Corp 撮像装置および撮像方法、ならびに測距方法
WO2005125186A1 (en) 2004-06-15 2005-12-29 Quantum Semiconductor Llc Imaging devices operable with multiple aspect ratios
JP2008040115A (ja) * 2006-08-04 2008-02-21 Fuji Heavy Ind Ltd ステレオカメラ
KR100899422B1 (ko) * 2007-08-06 2009-05-27 삼성모바일디스플레이주식회사 스테레오 매칭 시스템 및 이를 이용한 스테레오 매칭방법
US9582889B2 (en) 2009-07-30 2017-02-28 Apple Inc. Depth mapping based on pattern matching and stereoscopic information
WO2011107550A1 (en) * 2010-03-05 2011-09-09 Sony Corporation Disparity distribution estimation for 3d tv
KR100971730B1 (ko) * 2010-04-15 2010-07-21 (주)에이직뱅크 평행축 입체카메라
KR101735612B1 (ko) * 2010-08-16 2017-05-15 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
CN102005039B (zh) 2010-08-24 2012-05-23 浙江大学 基于泰勒级数模型的鱼眼相机立体视觉深度测量方法
US8582866B2 (en) 2011-02-10 2013-11-12 Edge 3 Technologies, Inc. Method and apparatus for disparity computation in stereo images
US9883164B2 (en) * 2011-08-03 2018-01-30 Sony Mobile Communications Inc. Optimizing usage of image sensors in a stereoscopic environment
US9007441B2 (en) * 2011-08-04 2015-04-14 Semiconductor Components Industries, Llc Method of depth-based imaging using an automatic trilateral filter for 3D stereo imagers
US8817073B2 (en) * 2011-08-12 2014-08-26 Himax Technologies Limited System and method of processing 3D stereoscopic image
JPWO2013038833A1 (ja) * 2011-09-16 2015-03-26 コニカミノルタ株式会社 画像処理システム、画像処理方法および画像処理プログラム
CN102404594B (zh) 2011-10-31 2014-02-12 庞志勇 基于图像边缘信息的2d转3d的方法
JP6064040B2 (ja) * 2012-05-09 2017-01-18 ライトロ, インコーポレイテッドLytro, Inc. ライトフィールドの取り込み及び操作を改善するための光学系の最適化
US9571818B2 (en) * 2012-06-07 2017-02-14 Nvidia Corporation Techniques for generating robust stereo images from a pair of corresponding stereo images captured with and without the use of a flash device
JP6520119B2 (ja) * 2012-08-06 2019-05-29 ソニー株式会社 画像処理装置および画像処理方法
US8908041B2 (en) 2013-01-15 2014-12-09 Mobileye Vision Technologies Ltd. Stereo assist with rolling shutters
US20140363097A1 (en) * 2013-06-06 2014-12-11 Etron Technology, Inc. Image capture system and operation method thereof
US9519956B2 (en) * 2014-02-28 2016-12-13 Nokia Technologies Oy Processing stereo images
KR102350232B1 (ko) * 2014-11-20 2022-01-13 삼성전자주식회사 스테레오 영상 매칭 방법 및 장치

Also Published As

Publication number Publication date
US10425630B2 (en) 2019-09-24
US20170374353A1 (en) 2017-12-28
CN107211118A (zh) 2017-09-26
EP3241349A4 (en) 2018-08-15
CN107211118B (zh) 2020-02-07
WO2016107964A1 (en) 2016-07-07
EP3241349A1 (en) 2017-11-08
JP2018517310A (ja) 2018-06-28

Similar Documents

Publication Publication Date Title
CN107087107B (zh) 基于双摄像头的图像处理装置及方法
US9998650B2 (en) Image processing apparatus and image pickup apparatus for adding blur in an image according to depth map
WO2019105214A1 (zh) 图像虚化方法、装置、移动终端和存储介质
US10257502B2 (en) Methods and apparatus for controlling light field capture
US9843787B2 (en) Generation and use of a 3D radon image
CN108432230B (zh) 一种成像设备和一种用于显示场景的图像的方法
JP6548367B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
KR20170135855A (ko) 패닝 샷들의 자동 생성
CN107105157A (zh) 从手持设备所捕获的多个图像进行肖像图像合成
KR101997991B1 (ko) 시점 변환을 이용하는 영상 결합 방법 및 시스템
JP2013143712A (ja) 画像処理装置、画像処理装置を有する撮像装置、画像処理方法、プログラム、及びプログラムを記憶した記憶媒体
US20130083169A1 (en) Image capturing apparatus, image processing apparatus, image processing method and program
CN104155839B (zh) 用于提供3维图像的系统和方法
JP5929922B2 (ja) 画像処理装置および画像処理方法
JP6608194B2 (ja) 画像処理装置およびその制御方法ならびにプログラム
WO2013069279A1 (ja) 撮像装置
JP6571779B2 (ja) 立体画像化
CN105467741A (zh) 一种全景拍照方法及终端
KR20160123757A (ko) 이미지 촬영 장치 및 이미지 촬영 방법
JP6491442B2 (ja) 画像処理装置、画像処理方法、プログラム及び記録媒体
JP6157238B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
KR102209908B1 (ko) 소프트웨어로 벨로우즈(Bellows) 카메라를 구현하는 영상 변환 카메라 장치 및 그 동작 방법
US20150365599A1 (en) Information processing apparatus, image capturing apparatus, and control method
JP6616668B2 (ja) 画像処理装置および画像処理方法
JP2016103807A (ja) 画像処理装置、画像処理方法、およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170825

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170825

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20180126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180126

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180413

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181002

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20181228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190709

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190808

R150 Certificate of patent or registration of utility model

Ref document number: 6571779

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250