JP2008529166A - デジタルカメラ画像におけるシーン距離の判定 - Google Patents

デジタルカメラ画像におけるシーン距離の判定 Download PDF

Info

Publication number
JP2008529166A
JP2008529166A JP2007553189A JP2007553189A JP2008529166A JP 2008529166 A JP2008529166 A JP 2008529166A JP 2007553189 A JP2007553189 A JP 2007553189A JP 2007553189 A JP2007553189 A JP 2007553189A JP 2008529166 A JP2008529166 A JP 2008529166A
Authority
JP
Japan
Prior art keywords
scene
distance
digital
digital image
digital camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007553189A
Other languages
English (en)
Other versions
JP4938690B2 (ja
Inventor
ブルックス ジンデル,エドワード
チャールズ ギャラガー,アンドリュー
ドーン エンゲ,エイミー
Original Assignee
イーストマン コダック カンパニー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by イーストマン コダック カンパニー filed Critical イーストマン コダック カンパニー
Publication of JP2008529166A publication Critical patent/JP2008529166A/ja
Application granted granted Critical
Publication of JP4938690B2 publication Critical patent/JP4938690B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/30Systems for automatic generation of focusing signals using parallactic triangle with a base line
    • G02B7/32Systems for automatic generation of focusing signals using parallactic triangle with a base line using active means, e.g. light emitter
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/586Depth or shape recovery from multiple images from multiple light sources, e.g. photometric stereo

Abstract

デジタルカメラにより捕捉されたデジタル画像のシーン距離の値に関する距離マップを生成する方法は、第一の照明条件下にあるシーンの第一のデジタル画像を捕捉するステップを含み、この第一のデジタル画像は複数の画素を含み、シーンは、デジタルカメラから異なる距離に位置される複数のシーンオブジェクトを含む。また、本方法は、第一の照明条件とは異なる第二の照明条件下にあるシーンの第二のデジタル画像を捕捉するステップ、並びに、第一及び第二のデジタル画像を使用して、複数のシーン距離の値を有する距離マップを生成するステップを含み、それぞれのシーン距離の値は、デジタルカメラち対応するシーンオブジェクト間の距離に関連する。

Description

本発明は、デジタル画像処理の分野全般に関し、特に、デジタルカメラにより捕捉されたデジタル画像におけるシーンにおける異なるロケーションの距離の検出に関する。
ナチュラルシーンの写真撮影のためのシーンオブジェクトジオメトリ、すなわち幾何学的な分布及び関係は、デジタルカメラにより生成されたデジタル画像を処理するために使用することができる有用な情報である。特に、カメラからオブジェクトへのラインオブサイトに沿ったカメラとシーンオブジェクトの間の分離距離を知ることは、シーン内でオブジェクトからオブジェクトへの分離距離を計算するために使用される。
この分野において半手動及び自動の従来技術の例がある。“Multiple View Geometry in Computer Vision Second Edition”Cambridge University Press, March 2004, R. Hartley, et al.では、2次元画像から3次元情報(従って距離情報)を検出するための幾つかの方法が開示されている。1つの方法は、異なる視野角から幾つかのシーンの捕捉を撮影することで達成される。幾何学的な構造を画像における所定の特徴に割り当てるユーザの介入を通して、シーンのユークリッド3次元ジオメトリを導出することができる。Hartleyによれば、プロジェクティブジオメトリの教示を使用することで、多くの例において、単一の画像からシーンを構築することが可能である。これは、画像形成されたシーンに関して行われた想定なしに行うことができない(たとえば、少なくとも2つの画像形成されたポイント間の物理的な距離が既知である)。かかる技術にとって、完全に自動化することは未だ可能ではない。しかし、プロジェクティブジオメトリックナレッジ(projective geometric knowledge)は、ユーザによりガイドされるシングルビューのシーンの再構成を可能にするシステムに構築される。Hartleyにより記載される更なる方法は、全てのシーンのポイントが全ての画像で目に見えることを必要とする。
既存の距離測定方法による重要な問題は、距離を判定するためにかなりの処理を必要とすることである。これらの問題は、画像の捕捉について特定のセットアップと同様に、ユーザの介入を必要とすることがある。さらに、これらの方法は、計算上非常に集約的であって複雑である。
本発明の目的は、カメラから異なる距離で位置されるシーンオブジェクトの距離マップを生成することにある。
上記目的は、デジタルカメラにより捕捉されたデジタル画像のシーン距離値の距離マップを生成する方法により達成され、以下のステップを含んでいる。a)第一の照明条件下にあるシーンの第一のデジタル画像を捕捉するステップ。第一のデジタル画像は、複数の画素を含み、シーンは、デジタルカメラから異なる距離に位置される複数のシーンオブジェクトを含む。b)第一の照明条件とは異なる第二の照明条件下にあるシーンの第二のデジタル画像を捕捉するステップ。c)第一及び第二のデジタル画像を使用して、複数のシーンの距離の値を有する距離マップを生成するステップ。それぞれのシーン距離値は、デジタルカメラと対応するシーンオブジェクトの間の距離に関連する。
本発明の特徴は、改善され、自動化され、計算効率の高い方法を提供し、デジタルカメラからのシーンにおけることなる位置の距離に関連したシーン距離値を判定することである。この特徴は、単一のデジタルカメラによるシーンの多数の画像を捕捉することで達成される。多数の画像は、異なる光源を使用して捕捉される。フラッシュイルミネーションの光源のための距離に依存した逆二乗法則は、距離マップを発展することに有利にも使用される。
以下の記載では、本発明の好適な実施の形態は、ソフトウェアプログラムとして本来実現されるアイテムで記載される。当業者であれば、かかるソフトウェアの等価なものがハードウェアで構築することもできる点を容易に認識されるであろう。画像処理アルゴリズム及びシステムは公知であるので、ここでの記載は、本発明に係るシステム及び方法の一部を形成するか、本発明に係るシステム及び方法とダイレクトに協働するアルゴリズム及びシステムに特に向けられる。特に図示されないか、又は明細書に記載されない、これに関わる画像信号を生成するか、さもなければ処理する他の態様の係るアルゴリズム及びシステム、並びにハードウェア又はソフトウェアは、当該技術分野で知られる係るシステム、アルゴリズム、コンポーネント及びエレメントから選択することができる。以下のマテリアルで本発明に従って記載されたシステムが与えられると、本発明の実現のために使用される、特に図示されないか、又は本明細書で示唆又は記載されないソフトウェアは、慣習的なものであり、当該技術分野における通常の技術内にある。
さらに、本明細書で使用されるように、コンピュータプログラムは、コンピュータ読取り可能な記憶媒体に記憶され、この記憶媒体は、たとえば、(ハードドライブ又はフロプティカルディスクのような)磁気ディスク又は磁気テープのような磁気記憶媒体、光ディスク、光テープ又はコンピュータ読取り可能なバーコードのような光記憶媒体、ランダムアクセスメモリ(RAM)又はリードオンリメモリ(ROM)のような固体電子記憶装置、若しくは、コンピュータプログラムを記憶するために利用される他の物理的な装置又は媒体を含む。
本発明を説明する前に、本発明はパーソナルコンピュータのような公知のコンピュータシステムで好適に使用されることを述べることは理解を容易にする。結果的に、コンピュータシステムは、本明細書では詳細に説明されない。画像は(たとえばデジタルカメラにより)コンピュータシステムにダイレクトに入力されるか、(たとえばハロゲン化銀フィルムのようなオリジナルをスキャニングすることで)コンピュータシステムに入力される前にデジタル化されることを述べることは有益である。
図1を参照して、本発明を実現するコンピュータシステム110が例示されている。コンピュータシステム110は好適な実施の形態を例示する目的で示されているので、本発明は、図示されるコンピュータシステム110に限定されるものではないが、家庭用のコンピュータ、キオスク、小売商又は卸売りの写真仕上げ、若しくはデジタル画像の処理用の他のシステムで発見されるような電子的な処理システムで使用することができる。コンピュータシステム110は、ソフトウェアプログラムを受信及び処理し、他の処理機能を実行するマイクロプロセッサベースのユニット112を含む。ディスプレイ114は、たとえばグラフィカルユーザインタフェースにより、ソフトウェアに関連されるユーザに関連する情報を表示するため、マイクロプロセッサベースのユニット112に電気的に接続される。キーボード116は、ユーザがソフトウェアに情報を入力するのを可能にするため、マイクロプロセッサベースのユニット112に接続される。入力のためにキーボード116を使用する代わりに、当該技術分野で公知であるように、ディスプレイ114でセレクタ120を移動し、セレクタ120が重なっているアイテムを選択するためにマウス118を使用することができる。
コンパクトディスク−リードオンリメモリ(CD−ROM)124は、ソフトウェアプログラムを典型的に含んでおり、マイクロプロセッサベースのユニット112にソフトウェアプログラム及び他の情報を入力するやり方を提供するため、マイクロプロセッサベースのユニットに挿入される。さらに、フロプティカルディスク126は、ソフトウェアプログラムを含み、ソフトウェアプログラムを入力するためにマイクロプロセッサベースのユニット112に挿入される。CD−ROM124又はフロプティカルディスク126は、マイクロプロセッサベースのユニット112に接続される外部に配置されるディスクドライブユニット122に代替的に挿入される。さらに、マイクロプロセッサベースのユニット112は、当該技術分野で公知であるように、ソフトウェアプログラムを内部に記憶するためにプログラムされる。また、マイクロプロセッサベースのユニット112は、ローカルエリアネットワーク又はインターネットのような外部ネットワークへの、テレフォンラインのようなネットワークコネクション127を有する。また、プリンタ128は、コンピュータシステム110からの出力のハードコピーをプリントするため、マイクロプロセッサベースのユニット112に接続される。
また、画像は、PCカード130で電子的に実施されるデジタル化された画像を含むPCMCIAカード(Personal Computer Memory Card International Associationの仕様に基づく)のような公知のパーソナルコンピュータカード(PCカード)130を介してディスプレイ114で表示される。PCカード130は、ディスプレイ114での画像の視覚的なディスプレイを可能にするため、マイクロプロセッサベースのユニット112に最終的に挿入される。代替的に、PCカード130は、マイクロプロセッサベースのユニット112に接続される外部的に配置されるPCカードリーダ132に挿入される。また、画像は、CD−ROM134、フロプティカルディスク126、又はネットワークコネクション127を介して入力される。PCカード130、フロプティカルディスク126又はCD−ROM124に記憶される画像、若しくはネットワークコネクション127を通して入力される画像は、デジタルカメラ(図示せず)又はスキャナ(図示せず)のような様々なソースから得られる。また、画像は、マイクロプロセッサベースのユニット112に接続されるカメラドッキングポート136を介してデジタルカメラ134から直接に入力されるか、ケーブルコネクション138を介してデジタルカメラ134からマイクロプロセッサベースのユニット112に直接に入力されるか、若しくは、ワイヤレスコネクション140を介してデジタルカメラ134からマイクロプロセッサベースのユニット112に直接に入力される。
本発明によれば、アルゴリズムは、上述された記憶装置のいずれかに記憶することができ、デジタルカメラからシーンにおける異なる位置の距離に関連する値を判定するために画像に適用される。
図2は、デジタルカメラに関する典型的な画像形成のシナリオを示す。複数のシーンオブジェクトを含むオリジナルのシーン160は、周囲の光源170により照明される。デジタルカメラ134は、デジタル画像の形式でオリジナルのシーン160を記録するために使用される。したがって、3次元のオリジナルシーン160が捕捉され、2次元のデジタル画像として表現される。本発明では、デジタルカメラ134は、2つのデジタル画像を捕捉するために使用され、それぞれは、異なる光源、すなわち異なる照明の状況を得ている。オリジナルシーン160は、周囲の光源170により照明されることが想定される。屋内の写真撮影では、周囲の光源170は、蛍光灯又は白熱電球である。屋外の写真撮影では、周囲の光源170は、直射日光、又は雲の量からの拡散太陽光とすることができる。周囲の光源170での第一の捕捉により生成されたデジタル画像は、ノンフラッシュデジタル画像201である。電子フラッシュユニットは、フラッシュ光源180と呼ばれる第二の光源として使用される。デジタルカメラ134による第二の捕捉は、フラッシュデジタル画像202とラベル付けされた第二のデジタル画像が得られる。
好ましくは、ノンフラッシュデジタル画像201は、2つの捕捉間のシーンにおける変化を低減するため、フラッシュデジタル画像202の前に15分の1秒及び30分の1秒の間で捕捉される。
周囲の光源170は、フラッシュデジタル画像202の捕捉のために使用される。したがって、周囲の光源170は、ノンフラッシュデジタル画像201が捕捉される第一の光源であると考えられ、周囲光源170とフラッシュ光源180の組み合わせは、フラッシュデジタル画像202が捕捉される第二の光源であると考えられる。なお、更なる光源、すなわち上述されたフラッシュ光源180は、電子的なフラッシュユニットにより生成される必要がある。たとえば、デジタルカメラ134に固定された第二の白熱電球は、更なる光源として使用される。したがって、更なる光源は、第二の画像捕捉についてアクチベートされる。単一の光源又は多数の光源の組み合わせのいずれかは、照明の状況を定義する。
オリジナルのシーン160と相対的なデジタルカメラ134の位置は、2つの捕捉について近似的に同じであるものとする。本発明は、これら2つの値を使用して、カメラからオリジナルシーン160におけるある場所へのラインオブサイトに沿った分離の距離に対応するフラッシュデジタル画像202のそれぞれの画素についてシーン距離の値を計算する。計算されたシーン距離の値は、デジタルカメラ134についてオリジナルシーン160の画像捕捉シナリオに対する距離の画像又は距離のマップ203(図3に示される)を構成する。したがって、距離のマップ203のそれぞれの画素についてシーン距離が計算される。次いで、距離のマップ203のそれぞれの画素についてシーン距離の値が計算される。次いで、距離マップ203は、デジタルカメラの単一のポイントの観点から、たとえば木、壁といったシーンオブジェクトの距離を判定するために分析される。たとえば、木に対応する距離マップ203に記録されるシーン距離の値が平均され、カメラと木の距離を判定する。
オリジナルシーン160は、デジタルカメラ134からの異なる距離に位置される複数のシーンオブジェクトを含む。たとえば、屋内のシーンは、床、壁、天井、家具、及び周囲の光源を含む。概念的にこれらアイテムのそれぞれがシーンオブジェクトであると考えられる場合、オブジェクトのそれぞれの部分をシーンオブジェクトとして考えることもできる。たとえば、部屋の天井は、オブジェクトであると考えられるが、天井の近い部分又は離れた部分も同様にオブジェクトであると考えられる。ノンフラッシュデジタル画像201及びフラッシュデジタル画像202の両者は、複数の画素を含む。これら2つのデジタル画像のそれぞれの画素は、シーンオブジェクトの一部に対応する。したがって、捕捉されたデジタル画像のそれぞれの画素は、デジタルカメラからの測定可能な距離である対応するシーンオブジェクトを有する。そこから距離が測定されるデジタルカメラ134の実際のポイントは、フロントレンズの中央、又はたとえばデジタル画像を捕捉するために使用される電子的なセンサのセンターフォトサイト、であるように任意に選択される。したがって、距離マップ203は、複数のシーン距離の値(画素値)を含み、それぞれのシーン距離の値は、デジタルカメラ134と対応するシーンオブジェクト又はシーンロケーションの間の距離に関する。距離マップ203のそれぞれの画素は、対応するシーンロケーション又はシーンオブジェクトを有するが、一般に、それぞれのシーンオブジェクトは、対応する計算されたシーン距離の値を有さない。たとえば、椅子がデジタルカメラ134に面している場合、椅子の背後は、カメラへのラインオブサイトを有することができず、したがって見られていない。しかし、デジタルカメラ134へのラインオブサイトを有するオリジナルシーン内のそれぞれのロケーション又はシーンオブジェクトは、測定可能なシーン距離の値を有する。
周囲の光源170は、オリジナルシーン160のシーンオブジェクトを一様に照射するものとする。最も写真撮影されたシーンについて、これは有効な近似である。したがって、異なるマテリアルの反射率の値を有する2つのシーンオブジェクトは、結果的に得られる捕捉されたデジタルカメラ画像における異なる画素値が得られ、低いマテリアルの反射率を有するシーンオブジェクトは、暗く見える(画素値において低い)。同じマテリアルの反射率の値を有する2つのシーンオブジェクトは、ノンフラッシュのデジタル画像201で近似的に同じ対応する画素値を有する。これは、2つのシーンオブジェクトがデジタルカメラ134から異なる距離に位置される場合でさえ当てはまる。したがって、周囲の光源170で捕捉されたノンフラッシュデジタル画像201について、画素値における差は、マテリアルの反射率における変化から主に生じる。これは、周囲の光源170により直接に照明されたシーンオブジェクトに対応する画素についての一般に当てはまり、周囲の光源により直接に証明されていない影付けされた領域に対応する画素について当てはまらない。したがって、周囲の光源170により捕捉されたデジタル画像から取られた画素値の差は、マテリアルの反射率における差から生じる。
フラッシュデジタル画像202について、同じマテリアルの屈折率の値の2つのシーンオブジェクトに対応する画素値は、オブジェクトがデジタルカメラ134から同じ距離で位置されるときにのみ同じである。これら2つのシーンオブジェクトがデジタルカメラ134から異なる距離で位置される場合、更なる離れたオブジェクトは、フラッシュ光源180から少ない光を受ける。結果的に、フラッシュデジタル画像202における対応する画素値は、より近いシーンオブジェクトに関連される対応する画素値についてよりも数値的に低い(低い受光を示す)。オリジナルシーン160内のシーンオブジェクトにより受けた光の強度は、フラッシュ光源180とシーンオブジェクトの間の距離の平方に近似的に逆比例する。フラッシュ光源180がデジタルカメラ134に固定された場合、シーンオブジェクトと光源の距離は、シーンオブジェクトとカメラの距離と近似的に同じである。異なるマテリアルの反射率の値を有する2つのシーンオブジェクトについて、2つのオブジェクトがフラッシュ光源180から同じ距離で位置されるときに、対応する画素値は異なる。したがって、フラッシュ光源180で捕捉されたデジタル画像内の画素値の変動は、カメラとシーンオブジェクトの距離における変動、又はマテリアルの反射率の変動から生じる。
本発明は、フラッシュ光源180の固有の逆平方の距離の関係、及び周囲の光源170の固有な距離に独立な関係を利用し、ノンフラッシュデジタル画像201又はフラッシュデジタル画像202の両者の画素についてシーン距離の値を導出する。これは、シーンオブジェクトのマテリアルの反射率の差がノンフラッシュデジタル画像201とフラッシュデジタル画像202の両者について近似的に同じであるという事実を利用することで達成される。フラッシュ光源180の角度の感度は、等方性、すなわちデジタルカメラ134の3つの主要な軸に関して指向角度に独立であるものとしている。電子的なフラッシュ光源のなかには、角度依存性を有するものがある。当業者であれば、捕捉されたデジタル画像のそれぞれの画素がカメラと相対的にシステマティックな角度を有するため、補償項を計算に含めることができることを理解されるであろう。
ノンフラッシュデジタル画像201について、オリジナルシーン160は、周囲の光源170を使用して生成されるように想定される。数学的に、ノンフラッシュデジタル画像201の画素値aijは、式(1)のように表現される。
Figure 2008529166
ここでAijは、ij番目の画素に対応するシーンオブジェクトについて周囲の光源の照明レベルを表し、MRijは、ij番目の画素に対応する画像形成されるシーンオブジェクトのマテリアルの反射率を表す。フラッシュデジタル画像202について、オリジナルシーン160は、周囲の光源170及びフラッシュ光源180を含んで生成されるように想定される。数学的に、画素データは、式(2)のように表現される。
Figure 2008529166
ここでbijはフラッシュデジタル画像202のij番目の画素値を表し、Fijはij番目の画素に対応するシーンオブジェクトについてフラッシュ光源の照明レベルを表す、
フラッシュ光源の照明により形成されるデジタル画像は、式(3)により与えられるようにフラッシュデジタル画像202の画素値からノンフラッシュ画像201の画素値を減算することで得られる。
Figure 2008529166
ここでcijはこの計算されたフラッシュオンリのデジタル画像のij番目の画素値を表す。マテリアルの反射率の値MRijは、式(4)を形成するため、式(1)により式(3)を割ることで式から除かれる。
Figure 2008529166
ここでqijはフラッシュオンリの周囲の画素値に対する割合を表す。周囲の光源170が定数A0により近似される場合、すなわち空間的に不変の分布を持つ場合、項qijは、式(5)により与えられるように、シーン距離の値Dij又はカメラとシーンオブジェクトの距離により決定されるフラッシュ光源180の空間変動に比例する。項F0は、フラッシュ光源180及びデジタルカメラレンズシステムのFナンバーにより放出されるパワーに関連する項である。
Figure 2008529166
この近似により、シーン距離の値Dijは、式(6)により与えられるように計算される。
Figure 2008529166
較正されるシーン距離の値Dijは、周囲の光源の照明の定数A0を決定することで計算される。A0を計算する1つの方法は、式(7)により与えられるように周囲のノンフラッシュデジタル画像201における値を平均することである。
Figure 2008529166
ここで定数5.5は、0.18の近似的に逆数であり、すなわち平均のマテリアルの反射率の値MRijである。シーン距離の値は、基準の距離としてカメラレンズフォーカス距離Dfを使用して較正される。量Dfは、「インフォーカス」であるカメラとシーンオブジェクトの距離を表す。カメラレンズサブシステムは、それ自身が較正される。カメラ視野の中央がmn番目の画像の画素位置に対応し、カメラレンズは、mn番目の画像の画素に対応するシーンオブジェクトにフォーカスされるものとし、シーン距離の値Dijは、式(8)により与えられる。
Figure 2008529166
ここで定数K0は、式(9)により与えられる。
Figure 2008529166
図3は、(図1に示される)マイクロプロセッサベースのユニット112の一部であるイメージプロセッサ200の機能的なブロック図である。なお、イメージプロセッサ200は、デジタルカメラ134の一部として実現される。距離計算手段210は、ノンフラッシュデジタル画像201及びフラッシュデジタル画像202を受け、上述された式(1)〜(9)で概説された計算を実行することで距離マップ203を生成する。したがって、距離マップ203は、ノンフラッシュデジタル画像201とフラッシュデジタル画像202のいずれかにおけるij番目の画素に対応するシーン距離の値Dijを含む。イメージプロセッサ200内で、変換モジュール220は、距離マップ203及びフラッシュデジタル画像202を受け、シーン距離の値を使用してエンハンスされたデジタル画像204を生成する。
上述された式(1)〜(9)の導出は、一般的な項で定式化される。すなわち、これらの式は、何れのタイプの画像の画素データについてシーン距離の値Dijの計算を説明するために使用される。たとえば、デジタルカメラ134が赤、緑及び青(RGB)の画素値を含むカラーデジタル画像を生成する場合、シーン距離の値は、ノンフラッシュデジタル画像201及びフラッシュデジタル画像202からの赤の画素値を使用して個々に計算される。同様に、シーン距離の値Dijは、緑又は青の画素の値を使用して計算することもできる。したがって、3セットのシーン距離の値は、3つの個別のカラーピクセルの値から個々に生成することができる。幾つかのデジタルカメラは、シアン、マゼンダ及びイエローに属する3色の画素値をもつデジタル画像を生成する。同様に、シーン距離の値Dijは、シアン、マゼンダ又はイエローの画素値(CMY)を使用して計算される。デジタルカメラにより生成されるモノクロ(黒と白)デジタル画像について、シーン距離の値Dijは、モノクロの画素値を使用して計算することができる。同様なやり方で、ルミナンスの画素値は、式(10)におけるように計算される。
Figure 2008529166
ここで項Rij、Gij及びBijはij番目の赤、緑及び青の画素値をそれぞれ表し、Lijはij番目のルミナンスの画素値を表す。特に有効な実現は、緑の画素値Gijを使用してシーン距離の値Dijを計算することである。この実現は、ルミナンスの画素値が計算される必要がないので、高速であってカメラの用途で特に有効である。
なお、ノンフラッシュデジタル画像201及びフラッシュデジタル画像202は、シーン距離の値の計算の前に記録されるべきである。2つの画像を記録することは、画像を揃えることに役立ち、たとえばハンドシェイクにより引き起こされるポジショニングエラーによりグロスの画素の変位を除く。たとえば、2つのデジタル画像間の正規化された相互相関の最大を発見することは、ある画像から他の画像へのピクセルオフセットを示す。オプティカルフロー又はブロックマッチング技術のような他のローカルな記録技術は、シーンにおけるオブジェクトが、フラッシュデジタル画像202の捕捉とノンフラッシュデジタル画像201の捕捉の間のタイムインターバルで移動したときに使用することができる。
図3を参照して、変換モジュール220は、距離マップ203のシーン距離の値を使用して、ノンフラッシュデジタル画像201又はフラッシュデジタル画像202のいずれかからエンハンスされたデジタル画像204を生成する。たとえば、シーン距離の値Dijは、フラッシュデジタル画像202の画素に適用されるぼやけ空間フィルタを調節するために使用される。式(11)は、一般化された空間フィルタリング演算を説明する。
Figure 2008529166
ここで項p’ijはij番目に処理される画素値を表し、pmnはij番目の画素に関する局所的な近隣における画素の値を表し、αmnはpmn画素値についての空間的な重み付けファクタを表す。したがって、空間的な重み付けファクタαmnは、式(12)及び(13)により与えられるようにシーン距離の値Z’ijの関数として形成される。
Figure 2008529166
Figure 2008529166
ここでτ1及びτ2は距離の閾値を表し、σはぼやけの演算(blurring operation)の空間的な広がりを決定する制御パラメータを表す。デジタルカメラ134は、カメラのレンズがフラッシュデジタル画像202の捕捉のために設定される距離に対応するカメラレンズの焦点距離Dfを提供する。距離の閾値は、式(14)のように、カメラレンズのフォーカス設定パラメータに基づいて設定される。
Figure 2008529166
ここでεは許容値を表す。エンハンスされたデジタル画像204の画素は、εの許容値外にある対応するシーン距離の値Dfを有する画素について、著しくぼやける。
式(12)〜(14)は、計算されたシーン距離の関数として空間フィルタを変えるための1方法を記載しているが、当業者であれば、本発明と共に他の機能的な形式が使用されることを認識されるであろう。たとえば、制御パラメータσは、シーン距離の値Dijの分析の関数として定式化することができる。同様に、σの形式は、著しく少ないぼやけ処理が実行される1を超える距離のレンジを有する。これは、第二のセットの距離の閾値のパラメータを有することで達成される。このシナリオでは、カメラに近いシーンオブジェクト又はカメラから離れたシーンオブジェクトに対応する画像の画素は、非常に少ないぼやけを受けるか、又はぼやけがなく、カメラの近くと遠くの間にあるシーンオブジェクトに対応するイメージピクセルは、著しくぼやける。式(15)は、遠近のシナリオを記述する。
Figure 2008529166
式(12)〜(14)により記載されるように、距離マップ203に基づいてぼやけ処理を調整する動作は、異なるFナンバーをもつデジタルカメラにより捕捉されているように見えるエンハンスされたデジタル画像204を生成する。特に、エンハンスされたデジタル画像204は、低いFナンバーで撮影されているように見える。ぼやけの処理が式(12),(14)及び(15)に基づくとき、処理されたエンハンスされたデジタル画像204は、従来のカメラで生成することができる物理的に実現可能な効果に容易に対応しない。
本発明の好適な実施の形態で開示される距離検出のアルゴリズムは、様々なユーザコンテクスト及び環境で利用することができる。例示的なコンテクスト及び環境は、制限なしに、(フィルムイン、デジタル処理、プリントアウトのようなプロセスステップ又はステージを例示的に含む)卸売りのデジタルフォトフィニッシング、小売りのデジタルフォトフォフィニッシング(フィルムイン、デジタル処理、プリントアウト)、ホームプリンティング(ホームスキャンフィルム又はデジタル画像、デジタル処理、プリントアウト)、デスクトップソフトウェア(デジタルプリントを良好にするか、又はデジタルプリントを買えるためにデジタルプリントにアルゴリズムを適用するソフトウェア)、デジタルフルフィルメント(メディア又はウェブからデジタル画像入力、デジタル処理、メディア上でデジタル形式での画像出力、ウェブを通してデジタル形式での画像出力、又はハードコピープリントでプリント)、キオスク(デジタル又はスキャン入力、デジタル処理、デジタル又はスキャン出力)、モバイル装置(たとえば、処理ユニット、ディスプレイユニット、又は処理命令を与えるユニットとして使用することができるPDA又はセルフォン)、及びWorldWideWebを介して供給されるサービスを含む。
それぞれのケースで、距離検出アルゴリズムは、スタンドアロン型であるか、又は大型システムソリューションのコンポーネントとすることができる。さらに、たとえばスキャニング又は入力といったアルゴリズムとのインタフェース、デジタル処理、ユーザへのディスプレイ(必要とされる場合)、ユーザ要求又は処理命令の入力(必要とされる場合)、出力は、それぞれ同じ又は異なる装置及び物理ロケーションにあり、装置とロケーション間の通信は、パブリック又はプライベートネットワークコネクションを介するか、又はメディアベースのコミュニケーションである。本発明の上述の開示と一致する場合、アルゴリズム自身は、完全に自動化することができ、ユーザ入力を有することができ(完全又は部分的に手動であり)、ユーザ又はオペレータに結果を許容/拒否するかを検討させるか、若しくはメタデータにより支援される(ユーザ供給されるメタデータ、たとえばカメラにおける測定装置により供給されるか、又はアルゴリズムにより決定される)。さらに、アルゴリズムは、様々なワークフローのユーザインタフェーススキームによりインタフェースする。
本発明に従って本明細書で開示される距離検出アルゴリズムは、様々なデータ検出及び低減技術(たとえば顔の検出、目の検出、皮膚の検出、フラッシュの検出)を使用する内部コンポーネントを有する。
コンピュータプログラムプロダクトは、1以上のストレージメディアを含み、たとえば、磁気ディスク(フロプティカルディスク)又は磁気テープのような磁気記憶媒体、光ディスク、光テープ又はコンピュータ読取り可能なバーコードのような光記憶媒体、ランダムアクセスメモリ(RAM)又はリードオンリメモリ(ROM)のような固体電子記憶媒体、若しくは、本発明に係る方法を実施するために1以上のコンピュータを制御する命令を有するコンピュータプログラムを記憶するために利用される他の物理的な装置又はメディアを含む。
本発明を実施するのに適したコンピュータシステムを示すブロック図である。 オリジナルシーン、デジタルカメラ、及び2つの光源からなる画像捕捉シナリオを示す機能ブロック図である。 距離計算のために必要とされる画像処理のブロック図である。
符号の説明
110:コンピュータシステム
112:マイクロプロセッサベースユニット
114:ディスプレイ
116:キーボード
118:マウス
120:セレクタ
122:ディスクドライブユニット
124:コンパクトディスク−リードオンリメモリ(CD−ROM)
126:フロプティカルディスク
128:プリンタ
130:パーソナルコンピュータカード(PCカード)
132:PCカードリーダ
134:デジタルカメラ
136:カメラドッキングポート
138:ケーブルコネクション
140:ワイヤレスコネクション
160:オリジナルシーン
170:周囲光源(ambient light source)
180:フラッシュ光源(flash light source)
200:イメージプロセッサ
201:ノンフラッシュデジタル画像(non-flash digital image)
202:フラッシュデジタル画像(flash digital image)
203:距離マップ
204:エンハンスされたデジタル画像
210:距離計算手段
220:変換モジュール

Claims (8)

  1. デジタルカメラにより捕捉されるデジタル画像についてシーン距離の値の距離マップを生成する方法であって、
    a)第一の照明の状況下にあるシーンの第一のデジタル画像を捕捉するステップと、前記第一のデジタル画像は複数の画素を含み、前記シーンは前記デジタルカメラから異なる距離に位置される複数のシーンオブジェクトを含み、
    b)前記第一の照明状況とは異なる第二の照明の状況下にあるシーンの第二のデジタル画像を捕捉するステップと、
    c)前記第一及び第二のデジタル画像を使用して、複数のシーン距離の値を有する距離マップを生成するステップとを含み、それぞれのシーン距離の値は、前記デジタルカメラと対応するシーンオブジェクトの間の距離に関連する、
    ことを特徴とする方法。
  2. デジタルカメラにより捕捉されたデジタル画像について距離マップを生成する方法であって、
    a)前記デジタルカメラを使用して、異なる光源により生じる異なる照明の状況下にあるシーンのデジタル画像を捕捉するステップと、前記シーンは前記デジタルカメラから異なる距離に位置される複数のシーンオブジェクトを含み、
    b)前記デジタル画像を使用して、シーン距離の値の距離マップを生成するステップとを含み、それぞれのシーン距離の値は、前記デジタルカメラと対応するシーンオブジェクトとの間の距離に関する、
    ことを特徴とする方法。
  3. 前記シーンの照明の状況は、光源のアクチベーション又はデアクチベーションにより生じる、
    請求項2記載の方法。
  4. 前記光源は、前記デジタルカメラと関連されるフラッシュユニットである、
    請求項3記載の方法。
  5. 前記照明状況のうちの一方は周囲光であり、他方は、周囲光と、フラッシュユニットからのフラッシュイルミネーションとの組み合わせにより生じる、
    請求項2記載の方法。
  6. それぞれのデジタル画像は、ログスペースに変換され、シーンにおけることなる位置にある異なる距離の関数である差を計算する、
    請求項4記載の方法。
  7. シーンにおける画素について既知の基準となる距離及び計算された差を使用して、前記距離のマップを生成するステップを含む、
    請求項6記載の方法。
  8. 前記距離マップを使用してデジタル画像の一方又は両方をエンハンスするステップを更に含む、
    請求項2記載の方法。
JP2007553189A 2005-02-01 2006-01-18 デジタルカメラ画像におけるシーン距離の判定 Expired - Fee Related JP4938690B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/048,463 US7389041B2 (en) 2005-02-01 2005-02-01 Determining scene distance in digital camera images
US11/048,463 2005-02-01
PCT/US2006/002558 WO2006083639A1 (en) 2005-02-01 2006-01-18 Determining scene distance in digital camera images

Publications (2)

Publication Number Publication Date
JP2008529166A true JP2008529166A (ja) 2008-07-31
JP4938690B2 JP4938690B2 (ja) 2012-05-23

Family

ID=36499454

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007553189A Expired - Fee Related JP4938690B2 (ja) 2005-02-01 2006-01-18 デジタルカメラ画像におけるシーン距離の判定

Country Status (5)

Country Link
US (2) US7389041B2 (ja)
EP (1) EP1844441A1 (ja)
JP (1) JP4938690B2 (ja)
CN (1) CN100550053C (ja)
WO (1) WO2006083639A1 (ja)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7389041B2 (en) * 2005-02-01 2008-06-17 Eastman Kodak Company Determining scene distance in digital camera images
JP4657052B2 (ja) * 2005-07-29 2011-03-23 イーストマン コダック カンパニー デジタルカメラ、撮影方法、および撮影制御プログラム。
US7623780B2 (en) * 2006-03-17 2009-11-24 Nikon Corporation Image capturing apparatus with color compensation
US20080231835A1 (en) * 2007-03-23 2008-09-25 Keigo Iizuka Divergence ratio distance mapping camera
JP4956452B2 (ja) * 2008-01-25 2012-06-20 富士重工業株式会社 車両用環境認識装置
JP4876080B2 (ja) * 2008-01-25 2012-02-15 富士重工業株式会社 環境認識装置
CN101685194A (zh) * 2008-09-26 2010-03-31 鸿富锦精密工业(深圳)有限公司 自动对焦装置及方法
DE102009017694B3 (de) * 2009-04-15 2010-12-02 Göpel electronic GmbH Anordnung einer rotatorischen Bildaufnahmeeinheit für die Abbildung von Objekten auf Leiterplatten unter einem polaren Betrachtungswinkel von 45°
US8289300B2 (en) * 2009-07-17 2012-10-16 Microsoft Corporation Ambient correction in rolling image capture system
US8391789B2 (en) 2010-04-19 2013-03-05 Nokia Corporation Apparatus for facilitating peripheral device selection
CN102298470B (zh) * 2010-06-25 2013-09-04 原相科技股份有限公司 影像感测模块
US8351653B2 (en) 2010-08-26 2013-01-08 Honda Motor Co., Ltd. Distance estimation from image motion for moving obstacle detection
US8315674B2 (en) 2010-10-08 2012-11-20 Research In Motion Limited System and method for displaying object location in augmented reality
FR2966257A1 (fr) * 2010-10-13 2012-04-20 St Microelectronics Grenoble 2 Procede et dispositif de construction d'une image en relief a partir d'images en deux dimensions
KR101180027B1 (ko) * 2011-03-10 2012-09-06 디나스트 광센서 및 이를 이용한 감지 방법
US9307134B2 (en) 2011-03-25 2016-04-05 Sony Corporation Automatic setting of zoom, aperture and shutter speed based on scene depth map
US20130129192A1 (en) * 2011-11-17 2013-05-23 Sen Wang Range map determination for a video frame
US8611642B2 (en) 2011-11-17 2013-12-17 Apple Inc. Forming a steroscopic image using range map
US9041819B2 (en) 2011-11-17 2015-05-26 Apple Inc. Method for stabilizing a digital video
WO2014159726A1 (en) 2013-03-13 2014-10-02 Mecommerce, Inc. Determining dimension of target object in an image using reference object
JP5862635B2 (ja) * 2013-10-11 2016-02-16 カシオ計算機株式会社 画像処理装置、立体データ生成方法、及びプログラム
US9426568B2 (en) 2014-04-15 2016-08-23 Harman International Industries, LLC Apparatus and method for enhancing an audio output from a target source
US9996899B2 (en) 2014-05-08 2018-06-12 Glasses.Com Inc. Systems and methods for scaling an object
US10019648B2 (en) 2015-12-09 2018-07-10 Adobe Systems Incorporated Image classification based on camera-to-object distance
US10049456B2 (en) 2016-08-03 2018-08-14 International Business Machines Corporation Verification of business processes using spatio-temporal data
JP2018092007A (ja) * 2016-12-02 2018-06-14 キヤノン株式会社 画像処理装置および画像処理方法、プログラム、並びに記憶媒体
WO2019013807A1 (en) * 2017-07-14 2019-01-17 Archit System Inc. METHOD AND SYSTEM FOR ACQUIRING A TEHRHERTZ-GIGAHERTZ IMAGE
US10574876B2 (en) * 2017-10-17 2020-02-25 Motorola Mobility Llc Photography environment control
US10469723B2 (en) 2017-10-17 2019-11-05 Motorola Mobility Llc Photography lighting control
CN108168713B (zh) * 2017-12-22 2019-08-23 福建和盛高科技产业有限公司 输电线路红外热成像防山火系统
US10999088B2 (en) * 2018-11-20 2021-05-04 Dell Products, L.P. Proximity and context-based telepresence in collaborative environments
CN109862209B (zh) * 2019-01-04 2021-02-26 中国矿业大学 一种基于光线逆追踪技术还原井下图像的方法
EP4094186A4 (en) * 2020-01-21 2024-01-24 Proprio Inc METHODS AND SYSTEMS FOR AUGMENTING DEPTH DATA FROM A DEPTH SENSOR, FOR EXAMPLE WITH DATA FROM A MULTI-VIEW CAMERA SYSTEM
CN111829484B (zh) * 2020-06-03 2022-05-03 江西江铃集团新能源汽车有限公司 基于视觉的目标距离测算方法
EP4013037B1 (en) * 2020-12-11 2023-05-03 Axis AB Space mapping illumination in image system
US11962912B2 (en) * 2021-06-16 2024-04-16 Aptiv Technologies AG Object detection via comparison of synchronized pulsed illumination and camera imaging

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09181913A (ja) * 1995-12-26 1997-07-11 Olympus Optical Co Ltd カメラシステム
JPH11225326A (ja) * 1998-02-05 1999-08-17 Toshiba Corp 画像監視装置
JP2002315022A (ja) * 2001-04-16 2002-10-25 Asahi Optical Co Ltd 3次元画像検出装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3410919B2 (ja) * 1997-01-31 2003-05-26 株式会社東芝 画像抽出装置
US6856355B1 (en) * 1999-11-30 2005-02-15 Eastman Kodak Company Method and apparatus for a color scannerless range image system
US6363223B1 (en) * 2000-03-29 2002-03-26 Terry Gordon Photographic firearm apparatus and method
US7102683B2 (en) * 2002-04-17 2006-09-05 Mitsubishi Electric Research Laboratories, Inc. Single lens 3D camera
US6792205B2 (en) * 2002-04-17 2004-09-14 Mitsubishi Electric Research Laboratories, Inc. Method for generating a textured range image
US7389041B2 (en) * 2005-02-01 2008-06-17 Eastman Kodak Company Determining scene distance in digital camera images

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09181913A (ja) * 1995-12-26 1997-07-11 Olympus Optical Co Ltd カメラシステム
JPH11225326A (ja) * 1998-02-05 1999-08-17 Toshiba Corp 画像監視装置
JP2002315022A (ja) * 2001-04-16 2002-10-25 Asahi Optical Co Ltd 3次元画像検出装置

Also Published As

Publication number Publication date
WO2006083639A1 (en) 2006-08-10
CN100550053C (zh) 2009-10-14
JP4938690B2 (ja) 2012-05-23
US20080192115A1 (en) 2008-08-14
CN101111867A (zh) 2008-01-23
US7389041B2 (en) 2008-06-17
US20060171566A1 (en) 2006-08-03
EP1844441A1 (en) 2007-10-17
US8073318B2 (en) 2011-12-06

Similar Documents

Publication Publication Date Title
JP4938690B2 (ja) デジタルカメラ画像におけるシーン距離の判定
US9736451B1 (en) Efficient dense stereo computation
JP4870779B2 (ja) デジタル画像露光量及びトーンスケールの調節
JP5291084B2 (ja) パンクロマティック画素を組み込むエッジマッピング
US9817159B2 (en) Structured light pattern generation
TWI489857B (zh) 產生穩健立體影像的技術
JP5395053B2 (ja) パンクロマティック画素を使用するエッジマッピング
CN107181897B (zh) 手持装置和手持装置捕捉图像的方法、设备及可读介质
US20070121094A1 (en) Detecting objects of interest in digital images
US20130335535A1 (en) Digital 3d camera using periodic illumination
US20150369593A1 (en) Orthographic image capture system
JP2010511350A (ja) 所望の解像度を有するカラー画像の提供
WO2020237565A1 (zh) 一种目标追踪方法、装置、可移动平台及存储介质
JP6045378B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2007536801A (ja) デジタルカメラ画像における赤目の特定
JP7378219B2 (ja) 撮像装置、画像処理装置、制御方法、及びプログラム
WO2013149866A2 (en) Method and device for transforming an image
JP4193342B2 (ja) 3次元データ生成装置
US20070126876A1 (en) Locating digital image planar surfaces
Lehtola et al. AUTOMATED IMAGE-BASED RECONSTRUCTION OF BUILDING INTERIORS-A CASE STUDY.
US11682134B2 (en) Object detection device, method, information processing device, and storage medium calculating reliability information of detected image data for object shape determination
JP2016072924A (ja) 画像処理装置及び画像処理方法
JP2019129469A (ja) 画像処理装置
JP2014011639A (ja) 撮像装置
JP2005216191A (ja) ステレオ画像処理装置およびステレオ画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110308

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110608

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110615

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110701

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110830

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111214

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20111222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120214

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120223

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150302

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4938690

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees